(navigation image)
Home American Libraries | Canadian Libraries | Universal Library | Community Texts | Project Gutenberg | Children's Library | Biodiversity Heritage Library | Additional Collections
Search: Advanced Search
Anonymous User (login or join us)
Upload
See other formats

Full text of "Le Scienze, n. 232"

LE SCIENZE 



-* scienti ne 

AMERICAN 



numero 232 
dicembre 1987 
anno xx 
volume XXXIX 



La prossima 
rivoluzione informatica 

/ calcolatori, divenuti in pochi decenni di importanza essenziale per la 
nostra società, sono destinati a ulteriori potenziamenti di prestazioni che 
li renderanno preziosi strumenti «intellettuali» per ogni genere di attività 

di Abraham Peled 



Quando fu inventato, il calcolato- 
re era solo un'interessante cu- 
riosità di laboratorio, mentre 
oggi senza di esso l'esistenza della socie- 
tà industriale sarebbe inconcepibUe. A 
livello sia nazionale sia internazionale, 
attività finanziaria, industria e trasporti 
si basano tutti su flussi elettronici di in- 
formazione. I tecnici che progettano 
nuovi materiali o prodotti farmaceutici 
dipendono dal calcolatore, come pure i 
fisici che studiano la natura dell'energia 
e della materia. La misura in cui l'infor- 
matica ha permeato il tessuto delle atti- 
vità intellettuali ed economiche finaliz- 
zate è senza confronti. L'informatica è 
forse l'impresa tecnologica più entusia- 
smante della storia e lo è certo per quan t i 
fra noi vi partecipano: immaginate che 
cosa significa lavorare in una disciplina 
che progredisce esponenzialmente! 

Oggi sembra che l'informatica stia en- 
trando in un nuovo stadio. In questa fa- 
se, grazie ai progressi sia nel campo del- 
l'hardware sia in quello del software, i 
calcolatori possono diventare, nell'arco 
dei prossimi 10 anni, più potenti, avan- 
zati e flessibili di un ordine di grandezza. 



Nello stesso tempo questa tecnologia di- 
venterà anche uno strumento intellet- 
tuale diffusissimo e potrà essere onni- 
presente come il telefono. Interfacce vi- 
sive e altre interfacce naturali agevole- 
ranno l'impiego delle macchine e una re- 
te flessibile e di grande capacità potrà 
collegare qualunque gruppo di individui 
abbia bisogno di ricorrere a strumenti 
informatici, si tratti di medici impegnati 
in una diagnosi difficile, dì banchieri che 
debbano decidere su un finanziamento, 
di ingegneri aeronautici che progettino 
una nuova cellula di aereo, di astrofisici 
che costruiscano un modello dell'evolu- 
zione dell'universo o di studenti che si 
preparino a un esame. 

Benché configuri un profondo cam- 
biamento nei rapporti tra la società 
e il calcolatore, la diffusione di questo 
strumento intellettuale è il risultato di- 
retto di evidenti tendenze che hanno ca- 
ratterizzato il progresso dell'industria 
sin dalla fine della seconda guerra mon- 
diale. I! più importante di questi fattori 
è la miniaturizzazione dei componenti 
elettronici. La miniaturizzazione è la 



Le visualizzazioni ottenute con un programma grafico avanzalo progettato per il SACE (Systolic 
Array Graphics Engine) mostrano un regresso infinito di cubi in rotazione. (Ne sono riportate 
sei per dare il senso del movimento.) SAGE è una macchina specializzata che con terra 16 milio- 
ni di transistori e potrà manipolare migliaia di figure geometriche alla volta. Sarà il prototipo 
dei dispositivi a chip unico che entro 10 anni produrranno molte visualizzazioni grafiche. 



causa principale della riduzione dei costi 
dell'elaborazione, che negli ultimi tre 
decenni è stata del 20-30 per cento all'an- 
no. Via vìa che le dimensioni di un tran- 
sistore, di una porta o di un altro ele- 
mento inciso su una piastrina (chip) di- 
minuiscono, aumenta in proporzione la 
loro velocità di funzionamento e la den- 
sità degli elementi per unità di superficie 
del chip cresce in ragione geometrica. 

Secondo le previsioni, il processo di 
miniaturizzazione dovrebbe continuare 
al ritmo attuale almeno per i prossimi 10 
o 15 anni, sotto la spinta di miglioramen- 
ti, diffìcili ma attuabili, della tecnologia 
odierna (si veda l'articolo Chip per l'ela- 
borazione avanzata di James D. Me indi 
a pagina 38). E probabile che la litogra- 
fia a raggi X basata sulla radiazione di 
sincrotrone, l'impiego di nuovi materiali 
e il perfezionamento della struttura dei 
dispositivi consentano di aumentare la 
densità dei componenti su un chip di un 
fattore compreso tra 20 e 40. Queste uni- 
tà di elaborazione avranno probabil- 
mente una velocità da sei a 12 volte su- 
periore a quella delle unità odierne. 

A questi miglioramenti si unirà la con- 
tinua crescita dell'elaborazione paralle- 
la. Virtualmente tutti i calcolatori lavo- 
rano in successione, un passo alla volta. 
L'elaborazione parallela è molto più po- 
tente, poiché il calcolatore, eseguendo 
simultaneamente tutti o molti dei passi 
di un problema o di un'elaborazione, 
può funzionare a una velocità molte vol- 



19 



te maggiore (si veda l'articolo Architet- 
ture per t supercalcolatori di Geoffrey C. 
Fox e Paul C. Messina a pagina 28). 

Se la miniaturizzazione scandisce il rit- 
mo del progresso tecnologico, sarà in de- 
finitiva la velocità di sviluppo e di utiliz- 
zazione del software a determinare la ce- 
lerità con cui i sistemi informatici entre- 
ranno nell'industria, nella scienza e nei 
servizi e li trasformeranno. Infatti è il 
software che trasforma un calcolatore da 
uno strumento che in teoria può risolve- 
re un problema in uno strumento che 
può risolverlo in pratica. Non vi è una 
tecnologia di software unica e neppure 
dominante; il progresso scaturirà da mi- 
glioramenti strutturali, da linguaggi più 
potenti e da ambienti di programmazio- 
ne più efficienti (si veda l'articolo Pro- 
grammazione per l'elaborazione avanza- 
la di David Gelernter a pagina 50). 

Nel linguaggio del software, «struttu- 
ra» indica l'efficienza o anche l'eleganza 
con cui i sottoprogrammi che costitui- 
scono un programma completo vengono 
combinati per consentire alla macchina 
di svolgere il suo compito. Il linguaggio 
permette all'utente di dire alla macchina 
come attuare il programma o una sua 
parte in vista dell'esecuzione di un com- 
pito. La potenza di un linguaggio dì pro- 
grammazione si misura dal numero dei 
particolari che sono necessari per speci- 
ficarlo. I linguaggi più potenti permetto- 
no all'utente di fornire semplicemente 
l'enunciazione matematica o logica del 
problema . poiché si sa che il calcolatore 
può integrarla nei particolari. 

L'ambiente di programmazione, cioè 
l'insieme degli strumenti fisici e logici 
con cui il programmatore trasmette le i- 
struzioni, si è evoluto, passando dagli in- 
terruttori a leva alla tastiera e al mouse, 
dai diagrammi di flusso e dai fogli di co- 
difica ai testi interattivi e alle rappresen- 
tazioni grafiche. I progressi della tecno- 
logia fanno intravvedere mezzi di comu- 
nicazione ancora più naturali (si veda 
l'articolo interfacce per l'elaborazione 
avanzata di James D. Foiey a pagina 78). 
Nell'ambito del software uno sforzo co- 
spicuo è evidentemente volto all'elimi- 
nazione delle difficoltà meccaniche che 
si accompagnano all'uso dei calcolatori, 
in modo che Tunica difficoltà residua sia 
quella concettuale legataalla risoluzione 
del problema che si sta affrontando. 

TI costo unitario di calcolo è sceso rapi- 
*- demente grazie ai progressi nel campo 
dell'hardware e in quello del software e 
ciò ha consentito all'informatica di e- 
stendersi a categorie sempre più vaste 
per prezzo e prestazioni: il grande calco- 
latore (mainframe), il minicalcolatore, ii 
calcolatore personale e il calcolatore in- 
corporato nel dispositivo da controllare. 
La comparsa di questi potenti sistemi 
è dovuta alla continua miniaturizzazio- 
ne, una tendenza sostenuta da ingegnosi 
miglioramenti nella litografia (il proce- 
dimento con il quale vengono incise sui 
chip le configurazioni di elementi), nelle 



tecnologie di lavorazione e nelle tecni- 
che di fabbricazione. La litografia e le 
tecnologie di lavorazione attuali posso- 
no raggiungere una risoluzione compre- 
sa tra 1,0 e 1 ,5 micrometri. La litografia 
ottica può probabilmente produrre di- 
spositivi anche di soli 0,4 micrometri; la 
litografia a raggi X può portarci a 0,1 
micrometri (un capello umano ha lo 
spessore di 100 micrometri). 

Via via che le dimensioni dei disposi- 
tivi diminuiscono, cominciano a emerge- 
re problemi di nuovo genere, ì cosiddetti 
effetti parassiti. Alla scala dei microme- 
tri i campi elettrici e magnetici generati 
dai dispositivi e dai minuscoli conduttori 
interferiscono con il funzionamento re- 
golare o addirittura lo impediscono. 
Tuttavia la tecnologia dei transistori a 
effetto di campo (che è sempre più alla 
base di tutte le macchine, tranne quelle 
dì prestazioni elevatissime) continuerà 
probabilmente a essere migliorata in 
densità e velocità. Nei 1997, il «ritardo 
di porta», cioè l'intervallo di tempo che 
trascorre tra la ricezione di un segnale e 
una variazione in uscita, sarà dell'ordine 
dei 200 picosecondi (un picosecondo è 
un bilionesimo di secondo); la densità 
sarà dell'ordine di 16-20 milioni di com- 
ponenti per chip. Questi progressi por- 
terebbero in modo naturale a chip di me- 
moria con una capacità di 16 milioni, 64 
milioni e perfino 256 milioni di bit. 

Questa tecnologia potrebbe consenti- 
re la costruzione di microunità di elabo- 
razione aventi una velocità di funziona- 
mento compresa fra 30 e 60 milioni di 
istruzioni al secondo (mips) , Con la stes- 
sa tecnologia si potrebbe fabbricare un 
calcolatore contenuto in un unico chip, 
compresa la memoria e gli adattatori di 
ingresso e uscita, in grado di funzionare 
a 1 o 2 mips; sarebbe equivalente a un 
calcolatore personale attuale. Tutte le 
tappe di progetto intermedie sono evi- 
dentemente conseguibili. 

Anche la tecnologia bipolare, la tec- 
nologia originaria dei semiconduttori, 
che è alla base di componenti critici delle 
macchine di elevate prestazioni, può e- 
volversi in questo senso. Si possono pre- 
vedere ritardi di porta di 40 picosecondi. 
Ma la densità è limitata dalla perdita di 
calore, poiché i dispositivi bipolari con- 
sumano quantità di energia relativamen- 
te alte. Il problema può essere risolto 
ricorrendo a nuovi materiali, forse anche 
a superconduttori ad alta temperatura. 

Via via che aumenta la velocità con cui 
un calcolatore esegue un'istruzione, cre- 
sce la quantità d'informazione che esso 
può sfruttare e produrre in un dato inter- 
vallo di tempo. Ciò vale sia che la mac- 
china stia lavorando su un modello eco- 
nometrico, sia che stia generando imma- 
gini di una molecola proteica in vibrazio- 
ne. Deve quindi aumentare la capacità 
dei dispositivi di memoria dai quali il cal- 
colatore trae le informazioni e nei quali 
le immette (si veda l'articolo immagaz- 
zinamento dati per l'elaborazione avan- 
zata di Mark H. Kryder a pagina 64). In 



realtà, negli ultimi 20 anni si è assistito a 
un grande aumento di capacità dei di- 
spositivi di registrazione magnetica, co- 
me i dischi. Nel 1967 la loro capacità era 
di 30 000 bit per centimetro quadrato; 
net 1987 è di circa tre milioni di bit per 
centimetro quadrato. Se la tendenza do- 
vesse continuare, si potrebbe arrivare 
entro un decennio a densità dell'ordine 
di 20 milioni di byte per centimetro cubo 
(l'equivalente di 300 romanzi). Con i di- 
spositivi di memoria ottici, come i com- 
pact dbc, si possono conseguire densità 
di informazione da cinque a sette volte 
maggiori che con i dispositivi magnetici. 

T "aumento del volume di informazione 
•'--' e della velocità con cui viene gene- 
rata porta a una domanda di maggiore 
capacità di comunicazione {si veda l'ar- 
ticolo Reti per l'elaborazione avanzata di 
Robert E. Kahn a pagina 92). Rafforza 
questa tendenza la necessità di collegare 
calcolatori e utenti situati in luoghi di- 
versi. Per soddisfare la domanda previ- 
sta si sta impiegando la tecnologia delle 
fibre ottiche. Negli Stati Uniti sono già 
installati più di 400 000 chilometri di cavi 
di fibra ottica. Al momento viene sfrut- 
tato soltanto il 25 per cento circa della 
loro larghezza di banda, o capacità, so- 
prattutto per comunicazioni vocali. So- 
no già in commercio dispositivi per im- 
mettere ed estrarre l'informazione dalle 
fibre ottiche a 1.7 miliardi di bit al secon- 
do; certi prototipi sperimentali funzio- 
nano a 10 miliardi di bit al secondo, 

I circuiti optoelettronici integrati a ba- 
se di arseniuro di gallio, un materiale 
semiconduttore che trasforma in modo 
efficiente la luce in corrente e viceversa, 
potrebbero consentire miglioramenti di 
velocità e di costo. Entro il prossimo de- 
cennio saranno ampiamente diffuse reti 
di calcolatori ad aita velocità con una 
capacità di 45 milioni di bit al secondo. 
L'effetto di questo sistema, di tre ordini 
di grandezza più esteso del suo predeces- 
sore degli anni settanta, non si limiterà 
all'aumento delle dimensioni. Diverran- 
no possibili, infatti, applicazioni connes- 
se con il movimento rapido di immagini 
visive; si potranno realizzare sistemi in- 
formatici di nuova configurazione, in cui 
macchine remote forniranno la stessa as- 
sistenza sollecita che fornirebbero se si 
trovassero nello stessa edificio. L'impie- 
go di queste reti richiederà notevoli pro- 
gressi nel software delle comunicazioni e 
protocolli nuovi e più efficienti , oltre a 
elementi di elaborazione specializzati 
che includano i protocolli nell'hard ware. 

Grazie allo sviluppo della tecnologia 
dei semiconduttori e a una migliore riso- 
luzione degli schermi, gli utenti di questi 
sistemi o di altri servizi di elaborazione 
potranno lavorare con visualizzatori ve- 
loci, di alta qualità e di prezzo ragione- 
vole. I visualizzatori presenteranno im- 
magini vivide e ricche di dettagli dei ri- 
sultati di complesse simulazioni e costru- 
zioni di modelli. Interagendo con il vi- 
sualizzatore si potranno studiare le con- 



100 




I960 



1965 



1970 



1975 



1980 



1985 



1990 



1995 



L'evoluzione dei calcolatori non specializzali in un periodo di 40 anni 
viene qui illustrata da fasce colorate che seguono gli sviluppi di quattro 
diversi lipidi macchine: i grandi calcolatori, conosciuti come mainframe 
iin blu), i mi nìcal cola tori (in rossoì, ì calcolatori personali Un 
verde] e i calcolatori incorporati lin arancione). Ognuna delle quattro 
fasce indica l'intervallo delle potenze di calcolo, espresse in milioni di 
istruzioni al secondo (mipsì, ottenìbili in ogni dato momento dal corri- 
spondente tipo di macchina. Le linee tratteggiate rappresentano proie- 
zioni ipotetiche successive al 1987. La potenza di calcolo dei calcolatori 



di grandi dimensioni è, in ogni dato momento, superiore a quella dei 
mìnicalcolatori, e questi ultimi sono più potenti dei calcolatori perso- 
nali, che a loro volta superano di gran lunga i calcolatori incorporati. 
Inoltre la potenza di calcolo ha un costo inferiore nelle macchine meno 
potenti. Per esempio, nel 1987 l'esecuzione di un milione di istruzioni 
al secondo su un grande calcolatore ha, approssimativamente, un costo 
relativo di 100 unità, su un minicalcolata re costa 40 unità, su un calco- 
latore personale costa tre unità e su un calcolatore incorporato (am- 
messo che ne esista uno di potenza sufficiente i costerebbe 0,15 unità. 



2" 



21 




Un calcolatore contenuto su un solo chip di Mi per IO millimetri può fun- 
zionare a 350 000 istruzioni al secondo. Una fetta di silicio I wafer t porta 
incisi «7 dispositivi come questo. Sonde e collegamenti consentono ai 



tecnici dell' IH M Research Division di controllare simultaneamente tutti 
i circuiti del dispositivo. Se qualcuno è difettoso, il dispositivo può essere 
scartato quando il wafer è tagliato per separare i singoli calcolatori. 



seguenze dì una variazione come, per e- 
sempio, l'introduzione di un elemento in 
una struttura molecolare o una modifica 
nella curvatura di una superficie aerodi- 
namica. Un altro vantaggio dell'alta ri- 
soluzione è che lo schermo potrà presen- 
tare testi di caratteristiche pari a quelle 
di una pagina stampata di alta qualità. 
Studi compiuti presso la IBM Research 
Division hanno dimostrato che il miglio- 
ramento del 20-30 per cento risultante 
permetterebbe una velocità di lettura e 
una capacità di ricordare paragonabili a 
quelli consentiti dalla pagina stampata. 
Dispositivi del genere richiederanno 
la messa a punto di speciali chip per la 
grafica. Presso l'IBM Research Division 
stiamo costruendo il prototipo di un si- 
stema di questo tipo, chiamalo sage 
(Systolic Array Graphics Engine), sage 
opera su un insieme di molte migliaia di 
poligoni, modificandone la forma e ani- 
mandoli. Sfruttando l'elaborazione pa- 
rallela, esso genera, a! bisogno, una nuo- 
va immagine in tempo reale, sage con- 
tiene più di 16 milioni di transistori, che 
un giorno saranno incisi su un solo chip. 

Carebbe auspicabile che i progressi 
*-* verso un software adeguato avvenis- 
sero con la stessa celerità con cui si co- 
struiscono calcolatori migliori. La rispo- 



sta a questo auspicio è che in effetti si 
sono compiuti progressi sostanziali nella 
capacità di produrre software, progressi 
che però sono messi in ombra dalla ve- 
locità senza precedenti con la quale si 
sviluppa ["hardware e sopraffatti dal 
gran numero di nuove possibilità che co- 
sì si aprono. La scrittura di software è 
intrinsecamente difficile poiché richiede 
che si specifichi la risoluzione di un pro- 
blema in maniera abbastanza dettagliata 
da consentirne l'esecuzione al calcolato- 
re. La scelta fra molte soluzioni possibili, 
tenendo presenti vincoli come la forma 
in cui i dati sono ricevuti, è un compito 
concettualmente complesso. Tale com- 
plessità, insieme con il fatto che il soft- 
ware valido si modifica continuamente 
via via che viene adattato e aggiornato, 
contribuisce a complicare il problema. 

La risposta al problema dì mettere il 
software in grado di realizzare le poten- 
zialità dell'hardware sta in parte nella 
creazione e nell'evoluzione di linguaggi 
di alto livello. Un linguaggio di questo 
tipo esprime le istruzioni in modo suc- 
cinto, fornendo dettagli relativamente 
scarsi. Per esempio, invece di ricevere 
l'istruzione specifica di passare in rasse- 
gna ciascuna singola entità, nel linguag- 
gio SETL si può ordinare al calcolatore di 
eseguire un calcolo matematico su un 



gruppo di entità: «Calcolare i contributi 
come percentuale del reddito lordo per 
tutte le dichiarazioni dei redditi indicanti 
un reddito lordo di un milione di dollari 
o più.» Linguaggi di questo genere sono 
frequenti nel progetto e nella costruzio- 
ne dei primi prototipi di un sistema. Co- 
struendo un prototipo è più facile iden- 
tificare e risolvere molte difficoltà con- 
cettuali. È una strada molto prometten- 
te per la costruzione graduale di soft- 
ware e potrebbe accrescere la produtti- 
vità in modo sostanziale. 

Un'ulteriore dimensione dì migliora- 
mento potrebbe scaturire dall'adozione 
di linguaggi miranti a facilitare grandi 
progetti di programmazione. In questi 
progetti la difficoltà sta nel fatto che 
molte parti del sistema debbono essere 
progettate in parallelo per ragioni di 
tempo e di economia. Questo vincolo 
impone un accurato progetto delle inter- 
facce. Poiché questi programmi hanno 
vita lunga, il linguaggio deve consentire 
modifiche ed evoluzioni. In questo am- 
bito l'accento è soprattutto posto sull'in- 
serimento nel linguaggio di dispositivi di 
incapsulamento dei dati e di procedure 
che consentano di usare i dati solo in 
maniera predeterminata. Spesso queste 
considerazioni devono essere oggetto 
di un compromesso rispetto alla necessi- 



tà immediata di adeguate prestazioni. 
In passato venivano prese decisioni 
che accrescevano l'efficienza, ma, dato 
che i costi dell'elaborazione continue- 
ranno a scendere, in futuro le decisioni 
favoriranno la struttura e la modularità. 
Infine verranno ideati e sfruttati metodi 
di programmazione atti a ridurre il tem- 
po necessario per istruire il calcolatore. 
Un esempio è il prolog. un linguaggio 
che affranca il programmatore dai det- 
tagli sequenziali, consentendogli di con- 
centrarsi sulle semplici relazioni logiche 
fra gli elementi del programma. 

Il compito di affrontare questi problemi 
sarà reso più agevole per il program- 
matore della potenza dei calcolatori per- 
sonali unita all'esistenza di depositi di 
facile accesso contenenti informazioni 
sui programmi. Questi sistemi altamente 
interattivi permetteranno un rapido ac- 
cesso a molti aspetti collegati del pro- 
gramma. Un'interattività di questo ge- 
nere può essere osservata nei Cornell 
Program Synthesizer che ha subito di- 
mostrato l'efficacia di un insieme di stru- 
menti basati sul linguaggio naturale per 
imparare a programmare. Più di recente 
il Garden Project della Brown Univer- 
sity ha introdotto le capacità grafiche di 
stazioni di lavoro per presentare all'u- 
tente aspetti multipli del programma. 

I sistemi espeni sono uno strumento e 
insieme un prodotto della tecnologia del 
software. La creazione di software è for- 
se il campo in cui i sistemi esperti sono 
più diffusamente impiegati. Un sistema 
esperto consiste di norma in una logica 
applicativa, costituita da un insieme di 
regole (se A e B, fa C) e in un program- 
ma di tipo generale - il motore ìnferen- 
ziale - che richiama le regole adatte al 
conseguimento di un certo scopo e poi le 
applica. Questo metodo di programma- 
zione affranca il programmatore dai par- 
ticolari relativi alla struttura dei dati e al 
flusso dei controlli (la specificazione mi- 
nuta dell'ordine in cui debbono essere 
eseguite le istruzioni). È anche possibile 
aggiungere nuove regole, in ogni mo- 
mento e in qualsiasi ordine. Ciò rende il 
sistema esperto particolarmente adatto a 
una rapida costruzione di prototipi e a 
una costruzione graduale dell'applica- 
zione. La medicina è un'area in cui, gra- 
zie a un intenso lavoro, la tecnologia si 
sta avvicinando ad applicazioni utili (si 
veda l'articolo Elaborazione avanzata 
per la medicina di Glenn D. Rennels ed 
Edward H. Shortliffe a pagina 120). 

Sebbene il software sembri in ritardo 
rispetto ali 'hardware, uno sguardo re- 
trospettivo all'evoluzione dei calcolatori 
dimostra che queste due branche tecno- 
logiche hanno dato luogo a un ventaglio 
in espansione di possibilità dì elabora- 
zione , e che questa tendenza mostra tutti 
i segni di una crescita vigorosa (si veda 
l'illustrazione a pagina 21). La potenza 
di elaborazione ha subito un aumento 
costante ed è aumentata la possibilità di 
acquistarla entro una data gamma di 



prezzi. La tecnologia ha consentito la 
produzione di calcolatori più piccoli, ma 
«utili», a un costo, per milioni di istru- 
zioni al secondo, sostanzialmente più 
basso e a un prezzo del sistema comples- 
sivamente inferiore. Perciò sono sorte 
nuove categorie di prezzi: i grandi calco- 



latori (mainframe) sono stati seguiti dai 
minicalcolatori, dai calcolatori personali 
e dai calcolatori incorporati. L'emergere 
di questi tipi di macchine è una conse- 
guenza naturale della tecnologia e del- 
l'economìa. Circuiti più densi e che as- 
sorbono meno potenza, oltre a un raf- 



L' ECONOMIA DELLA PROGETTAZIONE DEI SISTEMI 

Per acquistare un sistema capace di eseguire un dato compito al 
mìnimo costo, il gestore del sistema informatico bancario menzionato 
nell'articolo potrebbe sfruttare le seguenti equazioni. 

(I) P, = M x C(M) dove 

P. = prezzo dell'esecuzione del compito su una sola unici di elaborazione 
M = milioni di istruzioni al secondo (MIPS) necessarie per eseguire il compirò 
C = prezzo unitario. In dollari per MIPS, del MIPS massimo assegnato 



(2) P* = fi x M) 



x C I e x — 1 
V Ni 



dove 



P N = prezzo dell'esecuzione del compito su un certo numero di unità 
N = numero di unità più lente 

e = fattore di espansione, cioè incremento di lavoro reso necessario dalla 
suddivisione del compito fra più unità 



(3) e< 



La soluzione multiunità È preferibile se: 
C(M) 



C(e x M / N) 

Se N = IO ed e = 2, la soluzione multiunità è migliore se: 



(4) 



C(M) 



C(M / S) 



> 2 



Un'analisi più completa dei costi della banca è: 



(5) P H =(fcxM + mxU 



xc( kXM N m **■ ) + 



m x B 



dove 



k — espansione di MIPS nell'ambito dell'applicazione considerata 

m = numero dei messaggi che le uniti si devono scambiare 

(„ = milioni di istruzioni necessarie in media per un messaggio 

6 = prezzo della comunicazione di un messaggio medio 

Con N = 10, m = 100, k = 2, IJM = 0,005 e m x WC(M) = 0,1, la soluzione 
multiunità è migliore se: 



(6) 



(7) 



(8) 



C(M) 



> 2.8 



C(M I 4) 

Se fl aumenta di cinque volte, la condizione diviene; 

C(M) 
— > 5 

C(M/4) 

Se /,., si riduce di 10 volte, la condizione diviene: 

C(M) 

■ > 2,27 

C(M I 4,87) 

Se m x B'C(M) S I, non conviene mai suddividere il compito fra più uniti. 



22 



23 



freddamente e un incapsulamento meno 
costosi, aprono nuove possibilità proget- 
tuali. La crescita della domanda di ela- 
borazione nelle fasce di prezzo inferiori 
provoca ulteriori economie di scala, con- 
seguenza della produzione di massa. 

"P importante osservare come in ge- 
-*— ' nere i sistemi più piccoli abbiano, 
in proporzione, meno memoria interna 
ed esterna e meno capacità di ingresso e 
di uscita e non siano quindi in grado di 
eseguire molti programmi e applicazioni 
di grandi dimensioni. D'altra parte è evi- 
dente che, se un'elaborazione può essere 
effettuata su uno qualunque di questi si- 
stemi, l'utente ha una più ampia possi- 
bilità di scelta; a parità di condizioni, le 
nuove applicazioni tenderanno a sfrutta- 
re i sistemi della categoria più bassa fra 
quelle di capacità sufficiente. Al cresce- 
re del massimo MIPS per ogni categoria, 
il numero totale di applicazioni conve- 
nienti dal punto di vista economico cre- 
sce molto più rapidamente, poiché è la 
somma di tutte le applicazioni conve- 
nienti a ciascun livello. 

L'esperienza ha dimostrato che le uni- 
tà di elaborazione singole (o un piccolo 
numero di unità strettamente accoppia- 
te) sono le più versatili; inoltre la loro 
capacità effettiva di elaborazione e il 
tempo di risposta sono prevedibili e pre- 
sentano un andamento soddisfacente 
per un'ampia gamma di applicazioni. Le 
prestazioni, la capacità effettiva di ela- 
borazione e il tempo di risposta di un si- 
stema a più unità dipendono fortemen- 
te dall'applicazione a esso assegnata. 

Per esempio il dirigente responsabile 
di un sistema bancario di informazioni 
può avere necessità di acquistare un si- 
stema capace di elaborare 100 transazio- 
ni al secondo per tener nota dei prelievi 
di contante da un gruppo di distributori 
automatici. Per ottenere un tempo di ri- 
sposta inferiore a un secondo, potrebbe 
acquistare una macchina da 50 mips. È 
possibilissimo che 10 macchine da cin- 
que mips siano più economiche, ma la 
valutazione non è ancora completa. Il 
dirigente deve considerare il fattore di 
espansione, cioè il costo dell'hardware e 
del software necessari al coordinamento 
dei 10 calcolatori. Tenendo conto di 
questo, la macchina unica da 50 mips po- 
trebbe risultare più economica (si veda 
la «finestra» nella pagina precedente). 

Può anche darsi che il costo della co- 
municazione fra i singoli calcolatori sta 
talmente elevato da uguagliare o supe- 
rare il costo di un unico calcolatore aven- 
te una capacità uguale a quella di tutte 
le macchine singole. Il fatto è che, via 
via che i sistemi di elaborazione saranno 
disponibili in un numero crescente di 
forme, la scelta dipenderà in ampia mi- 
sura da come sono strutturati l'accesso ai 
dati e la ripartizione dei dati e non dal 
costo puro e semplice dell'elaborazione. 

Tali ragionamenti valgono quando si 
devono prendere decisioni su sistemi di- 
versissimi, da quelli che reggono il fun- 



zionamento di una grande società a quel- 
li che agevolano la creatività di un opera- 
tore isolato. In una grande società vi pos- 
sono essere oltre 100 000 nodi terminali 
che emettono 1000 richieste contempo- 
ranee. Se vengono sbrigate anche tran- 
sazioni fra diverse imprese questi numeri 
crescono di un ordine di grandezza. 

T a scelta del sistema dipenderà molto 
-1— ' dalle caratteristiche dell'applicazio- 
ne. Un sistema per eseguire transazioni 
commerciali può richiedere un tempo di 
risposta di un secondo. Pertanto, per un 
certo volume di transazioni e per un cer- 
to prezzo, il sistema più economico po- 
trebbe consistere in quattro unità di ela- 
borazione, capaci di eseguire 18,5 MIPS 
ciascuna. La distribuzione geografica di 
un sistema del genere comporta sempre 
uno svantaggio. Il tempo di risposta au- 
menta in modo proporzionale al numero 
di messaggi associati a ciascuna transa- 
zione. Anche se i ritardi di comunicazio- 
ne possono essere eliminati adottando 
una banda molto ampia, l'elaborazione 
suppletiva (cioè le istruzioni che devono 
essere eseguite in ciascun calcolatore per 
inviare e ricevere un messaggio) imposta 
dallo scambio dei messaggi allungherà il 
tempo di risposta. I grandi sistemi su sca- 
la mondiale porranno ardui problemi: la 
distribuzione, la manutenzione e l'ag- 
giornamento del software, oltre a pro- 
blemi che sorgeranno dalla continutà del 
funzionamento e quelli derivanti dall'in- 
terallaccìamento delle imprese. La com- 
plessità generata dall'aumento delle di- 
mensioni richiederà algoritmi, strutture 
di dati e concetti nuovi. 

All'opposto dei sistemi a scala di im- 
presa, la cui essenza è costituita dalla 
condivisione dei dati , l'essenza dei siste- 
mi informatici individuali è la potenza. 
Sistemi di questo tipo sono progettati 
per mettere a disposizione di un indivi- 
duo o di un piccolo gruppo di professio- 
nisti t'aiuto che la potenza del calcolato- 
re può fornire alla soluzione di un pro- 
blema. L'origine di questi sistemi risale 
all'elaborazione in divisione di tempo e 
alla elaborazione interattiva compiuta 
sui calcolatori mainframe, ma essi hanno 
subito una crescita esplosiva con l'avven- 
to del calcolatore personale e prometto- 
no di provocare cambiamenti del tutto 
radicali nella natura dell'elaborazione, 
rendendola un prolungamento universa- 
le dell'intelligenza umana. 

Un tipico calcolatore personale del 
prossimo decennio potrà avere una po- 
tenza di calcolo superiore di un ordine 
di grandezza a quella di una tipica mac- 
china odierna e una memoria da 10 a 100 
volte maggiore. li suo schermo di elevata 
qualità e ad alta velocità potrà generare 
in meno di un secondo un'immagine 
comprendente da uno a quattro milioni 
di pixel (elemento di immagine) con 
molte sfumature di colore (da 64 a 256). 

Una parte notevole della potenza del 
calcolatore sarà adibita a renderne più 
facile l'uso tramite l'adozione di un'inte- 



razione naturale uomo-macchina, basa- 
ta per esempio sulla voce o sulla scrittura 
manuale. Ricercatori dell'IBM hanno 
messo a punto un sistema capace di rico- 
noscere 20 000 parole che vengano pro- 
nunciate con brevi pause tra l'una e l'al- 
tra. Il sistema comprende 60 milioni di 
istruzioni che attivano quattro microuni- 
tà di elaborazione specializzate e un 
IBM PC/AT. Quattro anni fa un calco- 
latore del genere avrebbe occupato tutta 
una stanza; è probabile che fra cinque 
anni occupi meno spazio di una carta di 
credito. Il riconoscimento dell'eloquio 
continuo richiederebbe una potenza di 
calcolo 30 volte maggiore, e altra memo- 
ria e altra potenza sarebbero necessarie 
per accrescerne la precisione e ridurne la 
sensibilità al rumore ambientale. 

Un terminale «cartaceo» consente al- 
l'utente di «scrivere» su un visualizzato- 
re piatto a cristalli liquidi; il calcolatore 
riconosce i caratteri e li traduce in co- 
mandi, testi o disegni. Il sistema proto- 
tipo richiede da due a quattro mips; an- 
che gli algoritmi potenziati di cui ci sarà 
bisogno impegneranno solo una piccola 
porzione della capacità di elaborazione 
dei futuri calcolatori personali. 

(~\ Itre che per operare il riconoscimen- 
*-' to dell'eloquio e della scrittura ma- 
nuale, la potenza del calcolatore perso- 
nale sarà sempre più sfruttata per pre- 
sentare in maniera visivamente intuitiva 
i risultati dell'elaborazione. Accanto ai 
diagrammi a settori e ai grafici, vi saran- 
no immagini tridimensionali multicolori. 
Questi potenti sistemi interattivi rende- 
ranno il calcolatore personale un calco- 
latore frontale per qualunque sistema in- 
formatico: sarà per l'utente una finestra 
aperta su una vasta rete o su un super- 
calcolatore in grado di illustrare in pochi 
secondi i risultati di ore di calcoli. 

Potendo disporre di strumenti indivi- 
duali di elaborazione di grande potenza 
e flessibilità, i tecnici saranno in grado di 
costruire modelli di fenomeni molto 
complessi, quali il comportamento e l'ef- 
ficienza di una cellula di aereo in diverse 
condizioni di volo (si veda l'articolo Ela- 
borazione avanzata per l'industria di Al- 
bert M. Erisman e Kenneth W. Neves a 
pagina 134). Spesso se ne ricavano infor- 
mazioni più penetranti (e molto più eco- 
nomiche) di quelle fornite da simulazio- 
ni vere e proprie odagli esperimenti. La 
possibilità di costruire pervia elettronica 
un modello delle prestazioni e dell'a- 
spetto può essere utile anche agli archi- 
tetti, agli arredatori e agli scenografi. La 
costruzione di modelli al calcolatore 
sveltirà il passaggio dall'idea al prodot- 
to. Le informazioni ottenute per questa 
via potrebbero condurre a prodotti o a 
concetti di progetto del tutto nuovi. Allo 
stesso modo la simulazione elettronica 
può consentire a un ricercatore di effet- 
tuare esperimenti che sarebbero impos- 
sibili in natura, per esempio Sa determi- 
nazione di che cosa accade in una colli- 
sione fra galassie (si veda l'articolo Ela- 



borazione avan zata per la scienza di Piet 
Hut e Gerald Jay Sussman a pagina 106). 
La sede in cui l'elaborazione sarà ese- 
guita dipenderà dall'entità del lavoro e 
dai tempo di risposta desiderato. Un in- 
gegnere che modifica la forma della car- 
rozzeria di un'autovettura può avere bi- 
sogno di fare appello anche a 60 milioni 
di istruzioni per calcolare il risultato e ad 
altri quattro milioni di istruzioni per vi- 
sualizzare il veicolo sotto un angolo par- 
ticolare. Su un calcolatore personale da 
1 mips il lavoro potrebbe essere svolto in 
64 secondi; su un calcolatore da 20 MIPS, 
a cui il calcolatore personale fosse colle- 
gato da una linea ad alta velocità, la vi- 
sualizzazione richiederebbe quattro se- 
condi; i 60 secondi necessari per l'elabo- 
razione sono ridotti a tre. Si deve cercare 
un compromesso fra il tempo della per- 
sona e il costo dell'elaborazione. Al de- 
crescere dei costi di elaborazione, i di- 
spositivi saranno sempre più dedicati ad 
accrescere la produttività individuale. 

Un altro compromesso implicito si 
stabilisce fra la costruzione di un 
modello di carrozzeria di automobile o 
di cellula d'aereo sul calcolatore e la co- 



struzione di una versione sperimentale 
da collaudare in laboratorio. Via via che 
sarà disponibile, l'enorme potenza di 
calcolo necessaria per simulare la realtà 
sarà impiegata in tutte le fasi del ciclo 
progetto-produzione, tranne quelle fina- 
li. L'esperienza insegna che la simulazio- 
ne al calcolatore è molto più flessibile ed 
economica dell'allestimento dei prototi- 
pi. Il risultato è invariabilmente un pro- 
getto migliore, che si tratti della chiglia 
dì un'imbarcazione per V America 's Cup 
o di un calcolatore più veloce. 

Un risultato importante della crescita 
esponenziale della densità dei compo- 
nenti e del sempre maggiore perfeziona- 
mento del software è l'elaboratore paral- 
lelo. Certamente il calcolatore tradizio- 
nale, con una sola unità di elaborazione, 
sarà la macchina principale ancora per 
qualche tempo. Il calcolatore monouni- 
tà è versatile e ha un buon comporta- 
mento. Tuttavia le spinte economiche 
da un lato, e i progressi nella scienza 
del calcolatore, dall'altro, creeranno un 
gran numero di applicazioni utili per gli 
elaboratori parallelli (come pure per le 
macchine distribuite). 

Ciò che stiamo cercando è in ultima 



analisi la prestazione migliore in assolu- 
to. Vengono sottoposte a indagine vir- 
tualmente tutte le configurazioni in cui 
si possono interconnettere gli elementi 
di elaborazione, da migliaia di unità re- 
lativamente lente ed economiche a deci- 
ne dei più veloci calcolatori monounità 
che si possano costruire. Collegamenti a 
larghissima banda sono essenziali per 
consentire a dati e a istruzioni di spostar- 
si rapidamente fra le unità di elaborazio- 
ne, rendendo minimi i tempi morti. Po- 
che unità di elaborazione molto veloci 
possono essere collegate da fibre ottiche 
alimentate da circuiti optoelettronici. Se 
le unità di elaborazione sono molto nu- 
merose, il collegamento deve essere co- 
stituito da un tessuto di commutazione 
(per esempio una densa schiera di tran- 
sistori a effetto di campo), che consenta 
di stabilire un collegamento fra due unità 
qualunque così come una rete telefonica 
collega due apparecchi. Sarebbe impos- 
sibile costruire una rete di collegamenti 
diretti fra tutte le unità di elaborazione. 
Come si può immaginare» i tessuti di 
commutazione sono attualmente ogget- 
to dì intense ricerche. Un modello inte- 
ressante prevede una struttura di inter- 




L'RP3, un banco di prova per calcolatori paralleli dell'IBM, simula 
vari tipi di architetture parallele e le sottopone a collaudo su compiti di 



vario genere. Questo permette di stabilire l'idoneità di un'architettu- 
ra per un dato compito evitando i costi di costruzione dei prototipi. 



24 



25 




!.!■ 1 1. un calcolatore scientifico parallelo che è in grado di elTettuare 
1 1 miliardi di operazioni in virgola niobi le al secondo o gigafiop (i;fl«p), 
è attualmente in via di costruzione presso l'IBM Research Division. Il 
primo incarico previsto per la nuova macchina sarà quello di calcolare 



la massa del protone sulla base della cromodinamica quantistica, la 
teoria più accreditata sulla struttura della materia, (ili I dovreb- 
be essere in grado di portare a termine questo progetto in quattro 
mesi, mentre un supercalcolatore impiegherebbe non meno di 15 anni. 



connessioni che si ispira al cervello dei 
mammiferi. 

Gli strumenti per l'analisi delle presta- 
zioni , ben sviluppati per i calcolatori con 
una sola unità di elaborazione, sono an- 
cora rudimentali nel caso degli elabora- 
tori paralleli. Presso l'IBM Research Di- 
vision si stanno compiendo esperimenti 
sul collegamento di un piccolo numero 
di unità di elaborazione molto veloci e 
sulla costruzione di prototipi a elevato 
parallelismo. Uno di questi dispositivi è 
l'RP3. un elaboratore parallelo che, gra- 
zie alla sua organizzazione flessibile .può 
fungere da banco di prova per architet- 
ture parallele di vario genere. L'RP3 vie- 
ne sviluppato in collaborazione con ia 
New York University, avvalendosi in 
parte di finanziamenti della Defense 
Advanced Research Projects Agency, Il 
calcolatore sarà corredato di strumenti 
che consentiranno ai ricercatori di rac- 
cogliere informazioni in tempo reale sul 
modo in cui diversi tipi di macchine pa- 
rallele sono in grado di affrontare una 
vasta gamma di applicazioni. 

Presso gli stessi centri di ricerca del- 
l' IBM vi è un altro tipo di macchina. 



l'YSE, un elaboratore parallelo che si- 
mula i circuiti a livello dei componenti, 
cioè porte e commutatori, e non a livello 
dell'architettura. È una macchina a ele- 
vato parallelismo in grado di eseguire si- 
mulazioni con una velocità molte centi- 
naia di volte maggiore di qualunque cal- 
colatore monounità. L'YSE consente di 
verificare e mettere a punto rapidamen- 
te molti progetti evitando il costo dei 
prototipi. 

L'esistenza di microunità dì elabora- 
zione sempre più potenti imporrà un'ac- 
celerazione alla costruzione di calcolato- 
ri altamente specializzati. Per esempio i 
ricercatori della IBM stanno costruendo 
Gigaflop 11, una macchina capace di 
eseguire 11 gigaflop, ossia 11 miliardi di 
operazioni in virgola mobile al secondo. 
Un tessuto di commutazione chiamato 
rete di permutazione fa circolare i dati 
fra le 576 unità, che eseguono un'istru- 
zione comune secondo un piano preor- 
dinato. Il primo compito di GF11 sarà 
quello di calcolare la massa del protone 
sulla base della cromodinamica quanti- 
stica, la teoria più accreditata che cerca 
di descrivere la struttura ultima della 



materia. Questo calcolo, che richiede 
circa IO' 7 operazioni in virgola mobile 
con una precisione del 10 per cento, ter- 
rebbe impegnato un tipico supercalcola- 
tore per 15 anni. GF1 1 dovrebbe portar- 
lo a termine in quattro mesi. 

Il progresso dei sistemi informatici con- 
tinuerà, con ritmo forse esponenziale 
e certo senza rallentamenti, almeno per 
i prossimi 10 o 15 anni. La presenza dif- 
fusa di calcolatori in una comunità sem- 
pre più numerosa di utenti darà impulso 
alla creatività e alimenterà il progresso. 
Oggi l'informatica riesce a potenziare 
solo capacità mentali semplici e relativa- 
mente ricorrenti, ma si stanno compien- 
do progressi continui in vista del raffor- 
zamento delle capacità di carattere più 
analitico e inferenziale. Come le macchi- 
ne che estendevano e potenziavano le 
capacità fisiche degli uomini diedero av- 
vio alla Rivoluzione industriale, così l'in- 
formatica, grazie alla sua capacità di am- 
pliare le risorse mentali dell'uomo, è il 
motore della rivoluzione attuale, che at- 
tende ancora un nome adeguato. Il viag- 
gio è soltanto all'inizio. 



26 




Elaborazione avanzata 
per l'industria 

/ supercalcolatori, che già hanno rivoluzionato i metodi di progettazione 
e i processi di produzione dell industria aeronautica e automobilistica, 
potrebbero infuturo assumere un ruolo determinante anche in altri settori 

di Albert M. Erisman e Kenneth W. Neves 



Permettendo di eseguire assai velo- 
cemente grandi quantità di ope- 
razioni aritmetiche, il supercal- 
colatore ha già fornito ai progettisti del- 
l'industria nuove prospettive nell'analisi 
a) calcolatore, spianando così la strada al 
miglioramento delle prestazioni dei pro- 
dotti e a più consistenti economie nelle 
fasi di progettazione e di sviluppo dei 
prodi liti industriali. 

Nonostante questi risultati, però, i su- 
percalcolatori implicano numerosissimi 
problemi, tanto che la loro piena adozio- 
ne per la progettazione aeronautica e per 
l'industria in generale resta un'impresa 
ardua. Alcuni problemi di rilievo per 
l'industria sono troppo complessi persi- 
no per le capacità risolutive dei calcola- 
tori più progrediti. Inoltre i numerosi li- 
miti dei software esistenti hanno ridotto 
le possibilità di applicazione del super- 
calcolatore all'industria. Infine, il pas- 
saggio dall'analisi a] supercalcolatore al- 
l'integrazione completa tra progettazio- 
ne assistita da calcolatore (CAD) e pro- 
duzione assistita da calcolatore (CAM) 
resta un problema in gran parte irrisolto. 
Eppure si tratta di obiettivi che è neces- 
sario raggiungere; uno sguardo più da 
vicino alla progettazione aeronautica ne 
chiarirà il perché. 

Il campo dell'aerodinamica è stato 
uno dei primi a utilizzare i calcolatori per 
risolvere alcuni problemi di elaborazio- 



ne: già 20 anni fa gli ingegneri aerospa- 
ziali utilizzavano i calcolatori per realiz- 
zare modelli del flusso aerodinamico in- 
tomo a un profilo alare (la sezione di 
un'ala) e. in misura più limitata, intorno 
alla fusoliera di un aereo. Oggi i super- 
calcolatori permettono ai ricercatori di 
scomporre e studiare tutte le componen- 
ti della resistenza aerodinamica di ogni 
singola parte dell'aereo. 

Secondo il nostro collega Paul E. 
Rubbert della Boeing Company, l'anali- 
si al calcolatore ha rivoluzionato la me- 
todologia della progettazione aerodina- 
mica e oggi il supercalcolatore ha, per 
l'industria aeronautica, importanza pari 
a quella della galleria del vento. Inoltre 
la complessità della ricerca al calcolatore 
applicata all'aerodinamica è tra le più 
consistenti nei vari campi della ricerca 
scientifica. 

Il supercalcolatore ha messo gli stu- 
diosi di aerodinamica in grado di esami- 
nare i particolari della conformazione 
del flusso aerodinamico che risultano 
impossibili da misurare in una galleria 
del vento tradizionale e che non si pos- 
sono studiare con i calcolatori tradizio- 
nali. Per di più, i dati assai complessi 
introdotti in un supercalcolatore si pos- 
sono convertire in una rappresentazione 
grafica tridimensionale visualizzabile in 
una stazione di lavoro sotto angoli e pro- 
spettive variabili. Per questo motivo gli 



Con un supercalcolatore si può realizzare il modello del (lusso dell'aria sulla superficie di un 
aereo e visualizzarlo in [re dimensioni. In alto sono simulate le traiettorie delle particelle d'aria 
provenienti sia dallo scarico del motore, sia dal bordo di uscita dell'ala di un Boeing 737-300. ! 
ricercatori possono riportare su un grafico l'esalto percorso del (lusso costruendo una superficie 
piana artificiale sul retro dell'ala per misurare le coordinate delle particelle nei vari punti lungo 
il (lusso. Il supercalcolatore può realizzare anche un modello del flusso complessivo dell'aria e 
dei valori di pressione corrispondenti che agiscono sull'aereo (in basso}. L'immagine si riferisce 
al modello della pressione dell'aria per il Boeing 767-200 in fase di decollo o di atterraggio, ossia 
con i flap ahhassati. l.e regioni dove la pressione dell'aria è più bassa le il flusso dell'aria 
massimo) sonn In rosso, mentre quelle di pressione massima te flusso minimo) sono in viola. 



esperti iti aerodinamica della Boeing af- 
frontano ordinariamente al calcolatore 
l'analisi delle diverse parti dell'aereo, 
comprese la fusoliera, l'ala, il montante 
che sostiene il motore (pilone) e l'invo- 
lucro che racchiude il motore (gondola). 
Le prove in galleria del vento possono 
indicare il manifestarsi di una resistenza, 
ma solo il calcolatore è in grado di sepa- 
rarne le componenti e fornire informa- 
zioni precise sulla loro importanza rela- 
tiva. Per la prima volta l'analisi al calco- 
latore può evidenziare fenomeni altri- 
menti non rilevabili con la sperimenta- 
zione fisica. 

supercalcolatori hanno rivestito un 
-1 ruolo cruciale nella progettazione 
del Boeing 737-300, entrato in servizio 
nel 1984, 17 anni dopo la prima consegna 
al cliente di un esemplare del suo fortu- 
natissimo predecessore, il Boeing 737- 
-200. Nell'intento di contenere ì consumi 
di combustibile, la Boeing aveva deciso 
dì mantenere, tranne che per alcuni am- 
pliamenti di importanza secondaria, la 
struttura originale della fusoliera del 
737-200, sostituendone invece i motori 
con quelli di un modello più moderno ed 
efficiente. Si presentava tuttavia un pro- 
blema tecnico: i nuovi motori avevano 
un diametro molto maggiore di quelli da 
sostituire. 

Fu chiaro che non era possibile appli- 
care motori di diametro maggiore ai 
montanti già esistenti sotto le ali del 737- 
-200: per garantire una distanza di sicu- 
rezza sufficiente tra aereo e suolo con i 
motori in quella posizione sarebbe stato 
necessario allungare il carrello di atter- 
raggio, aggiungendo un peso in più 
che avrebbe imposto notevoli modifiche 
strutturali e fatto crescere considerevol- 
mente il costo del velivolo. Gli ingegneri 
della Boeing osservarono allora che, 
montando i motori sul davanti dell'ala 
invece che al di sotto, sarebbe stato pos- 

135 



si bile ottenere una distanza dal suolo 
adeguata, senza aggravi significativi del 
peso e del costo. Il progetto, tuttavia, si 
scontrava con un ostacolo invalicabile: le 
prove in galleria del vento avevano rive- 
lato più volte che posizionando i motori 
presso il bordo d'attacco dell'ala si per- 
veniva a resistenze aerodinamiche di en- 
tità inaccettabile. Nei 20 anni precedenti 
gli studiosi avevano tentato varie volte 
di realizzare un sistema di collegamento 
cosi ravvicinato tra motore e ala modifi- 
cando il disegno della gondola in galleria 
del vento, ma non avevano mai avuto 
successo. 

Come previsto, l'analisi al calcolatore 
indicava che l'avvicinamento tra motore 
e ala creava una resistenza eccessiva. A 
differenza, però, di quanto emerso dalla 
galleria del vento l'analisi al calcolatore 
ha rivelato quale sia l'effettivo meccani- 
smo di formazione della resistenza aero- 
dinamica, un fenomeno che era sfuggito 
a due decenni di prove sperimentali nella 
galleria del vento. Manipolando le va- 
riabili al calcolatore i ricercatori della 
Boeing hanno potuto valutare varie so- 
luzioni alternative, con un grado di det- 
taglio maggiore di quello ottenibile con 
prove in galleria del vento. Sulla base di 
questi studi al calcolatore i ricercatori 
sono riusciti a elaborare una soluzione 
innovativa al problema della collocazio- 
ne del motore e del progetto della gon- 
dola. Elaborando con cura il modello 
della parte superiore della gondola è sta- 
to possibile modificarne la linea, renden- 
dola asimmetrica e leggermente a pera, 
in una configurazione che elimina l'in- 
terferenza con il normale flusso d'aria al 
di sopra dell'ala. Ne è derivato un mo- 
tore strettamente accoppiato all'ala, con 
livelli di resistenza aerodinamica note- 
volmente ridotta 

Un esempio altrettanto eloquente del- 
la potenza che ha fatto del super- 
calcolatore uno strumento insostituìbile 
per la progettazione aeronautica sta nel- 
la realizzazione del Boeing 757, un ae- 
reo consegnato al primo cliente nel 1982. 
Dal momento che, in base ai program- 
mi, la sua realizzazione doveva seguire 
di sei mesi quella del 767. dalla fusoliera 
più ampia, l'azienda decise di incorpora- 
re in entrambi i modelli il medesimo 
posto di pilotaggio. 11 motivo di questa 
scelta era squisitamente pratico: i piloti 
devono superare un esame di idoneità 
specifico per ogni tipo di posto di pilo- 
taggio, il che comporta normalmente 
una preparazione specifica per ciascun 
modello di aereo. Progettando il 757 e il 
767 con lo stesso posto di pilotaggio, i 
piloti avrebbero dovuto affrontare un 
solo esame per ottenere l'autorizzazione 
a pilotare entrambi gli aerei. Ciò avreb- 
be comportato naturalmente notevoli ri- 
sparmi di tempo e di denaro per le com- 
pagnie aeree commerciali. La Boeing si 
trovava però di fronte a una grave diffi- 
coltà: il 757 è un aereo a fusoliera sottile . 
più stretta di quella del 767; come sareb- 



be stato dunque possibile mantenervi 
l'architettura del posto di pilotaggio di 
moderna tecnologia progettato per il 
767, data la differenza di dimensioni dei 
due aerei? 

Il flusso di aria intorno all'aereo, lad- 
dove la cabina che ospita il posto di pi- 
lotaggio interseca la fusoliera, risulta 
fondamentale per le prestazioni del mez- 
zo: una resistenza aerodinamica troppo 
elevata in quella zona può aumentare 
notevolmente il consumo di combustibi- 
le e il rumore all'interno. Un'analisi 
aerodinamica particolareggiata del 757 
(dotato di una nuova cabina che fosse 
abbastanza grande da ospitare i compo- 
nenti essenziali del posto dì pilotaggio 
del 767) sarebbe stata essenziale per sta- 
bilire possibilità e modalità dì costruzio- 
ne di un aereo di questo tipo. 

La procedura consueta avrebbe previ- 
sto la costruzione di varie sagome dì que- 
ste sezioni , con zone di raccordo diverse , 
e le loro prove in galleria del vento per 
individuare la soluzione migliore (ovve- 
ro la più aerodinamica), ma il tempo in- 
calzava e la compagnia doveva rispettare 
le scadenze di produzione. Si procedette 
cosi all'analisi delle alternative proget- 
tuali mediante un su perca tco lato re. In 
pochi giorni (invece dei mesi che sareb- 
bero occorsi per l'analisi condotta in gal- 
leria del vento) si approdò al progetto di 
una cabina capace di ospitare il posto di 
pilotaggio del 767 nella fusoliera più sot- 
tile del 757. pur soddisfacendo ì requisiti 
aerodinamici e dimensionali. I tecnici 
della Boeing furono talmente fiduciosi 
delia validità dei loro risultati da racco- 
mandare addirittura l'avviamento della 
produzione del nuovo aereo prima anco- 
ra della verifica di tali risultati nella gal- 
leria del vento. 

L'ultimo aereo della Boeing, il 7J7, 
ancora in fase di sviluppo, apre una nuo- 
va era nella propulsione a reazione: i 
motori a reazione dell'aereo si trovano 
presso la coda e muovono due eliche ge- 
melle a pale ricurve poste all'estremità 
posteriore della gondola. Le pale ester- 
ne sono più efficienti dì quelle intubate 
dei motori a reazione convenzionali e 
portano a notevoli economie di combu- 
stibile pur consentendo all'aereo veloci- 
tà dell'ordine di quelle dei velivoli già 
esistenti. Il progetto profondamente in- 
novativo di questo aereo non sarebbe 
staio possibile senza il su perca [colatore. 
Tra gli altri aspetti della progettazione 
aeronautica che fanno largo uso di mo- 
delli matematici complessi e del super- 
calcolatore si possono ricordare l'analisi 
strutturale di singoli componenti, l'ana- 
lisi elettromagnetica di sistemi di con- 
trollo e la toro progettazione. 

Oggi, quasi tutte le grandi aziende au- 
tomobilistiche stanno utilizzando i 
supercalcolatori per la progettazione dì 
automobili aerodinamiche. La Ford Mo- 
tor Company, per esempio, si è affidata 
in misura notevole al su perca! co latore 
per progettare la Taurus modello 19K6 e 



si valuta che il s u pe rea !co latore, oltre al- 
l'economia di combustibile per l'utente, 
abbia permesso alla Ford di risparmiare 
vari milioni di dollari in costi di proget- 
tazione soprattutto perché ha reso inuti- 
le la realizzazione di numerosi prototipi. 
Le industrie automobilistiche ricorrono 
infatti abbondantemente al supercalco- 
latore anche per simulare gli urti: realiz- 
zando sullo schermo di un calcolatore 
modelli dei danni da collisione, riescono 
a risparmiare forti somme che andreb- 
bero altrimenti spese per la distruzione 
di prototipi assai costosi. 

Ma l'esempio principe di impiego in- 
dustriale del supercalcolatore è forse 
quello dell'industria petrolchimica che. 
dalla fine degli anni settanta, ne ha tratto 
notevole vantaggio sia per l'esplorazio- 
ne, sia per l'estrazione del petrolio. I 
sondaggi sismici, registrati su nastro ma- 
gnetico, possono essere direttamente in- 
trodotti nel calcolatore per identificare 
le formazioni geologiche associate speci- 
ficamente ai giacimenti petroliferi. Ciò 
permette agli ingegneri petrolchìmici di 
localizzare i siti di perforazione più con- 
venienti con precisione nettamente mag- 
giore di quella raggiungibile con i metodi 
tradizionali, aumentando quindi la pro- 
babilità di intercettare un grande giaci- 
mento. Data l'entità dei costi di perfora- 
zione (fino a 15 milioni di dollari per 
pozzo sulla terraferma e molti di più in 
mare aperto), i costi di elaborazione al 
calcolatore sono trascurabili rispetto ai 
benefici. Inoltre i supercalcolatori han- 
no una funzione anche nell'estrazione 
del greggio: realizzando un modello del- 
la fluidodinamica dei vari metodi di 
estrazione possono essere migliorati i co- 
efficienti di recupero. 

I supercalcolatori hanno svariate ap- 
plicazioni e in linea generale si possono 
impiegare per qualsiasi problema nel 
quale modelli matematici complessi pos- 
sano aprire nuove prospettive per la pro- 
gettazione di un prodotto o per l'aumen- 
to della produttività. Essi vengono usati 
per realizzare modelli di strutture mole- 
colari, di rilevamenti radar e perfino 
per produrre immagini cinematografi- 
che. Un altro settore di esteso impiego 
è quello della simulazione di volo e dei 
programmi di addestramento dei piloti 
(si veda l'articolo La simulazione del vo- 
lo, di Ralph Norman Haber in «Le 
Scienze» n. 217, settembre 1986). men- 
tre negli ultimi tempi i supercalcolatori 
sono stati adottati anche da alcune gran- 
di società finanziarie che li utilizzano per 
analizzare i portafogli titoli. 

Nelle applicazioni che riguardano l'e- 
dilizia, i supercalcolatori vengono usati 
per realizzare modelli della resilienza a 
sollecitazioni o sotto l'azione dei terre- 
moti nella progettazione di grandi opere 
come ponti, recipienti di contenimento 
per reattori nucleari, grandi stadi (per 
esempio il Saddledome di Calgary nel- 
l'Alberta, in Canada) e grattacieli. Inol- 
tre, i supercalcolatori hanno iniziato a 
modificare l'aspetto delle previsioni me- 



teorologiche: è possibile infatti combi- 
nare i dati particolareggiati sulle condi- 
zioni geografiche e climatiche con i dati 
di una tempesta reale e immetterli nel 
calcolatore per produrre un'immagine 
tridimensionale della tempesta in movi- 
mento, I meteorologi possono così pre- 
vedere il percorso della tempesta e dare 
in anticipo, con una precisione ampia- 
mente superiore a quella raggiungibile 
prima dell'avvento del supercalcolatore, 
l'allarme alle popolazioni delle regioni 
che hanno maggior probabilità dì essere 
investite. 



Finora abbiamo descritto alcuni dei 
successi ottenuti con l'impiego del super- 
calcolatore nell'industria, ma occorre di- 
re che queste vittorie non sono state ot- 
tenute facilmente e l'applicazione non è 
stata estesa come avrebbe potuto essere. 
Per capire come mai, occorre considera- 
re i limiti del supercalcolatore. 

Il termine supercalco latore ha due ac- 
cezioni: da una parte designa quei cal- 
colatori che posseggono la massima «po- 
tenza bruta» misurata in termini di velo- 
cità di elaborazione e di dimensioni di 



memoria, mentre dall'altra contraddi- 
stìngue calcolatori eccellenti per la loro 
architettura interna, cioè per i compo- 
nenti hardware di cui sono costituiti. In 
questo articolo utilizzeremo il termine 
per riferirci solamente ai calcolatori del- 
la prima categoria, i quali comunque 
posseggono di solito anche un'architet- 
tura avanzata. Per i calcolatori della 
seconda categoria, macchine meno po- 
tenti, ma comunque assai avanzate nel- 
l'architettura, si utilizzerà l'espressione 
«quasi-supercalcolatore». 
Poiché i supercalcolatori sono stati 




I due propulsori del 737-200 sono racchiusi in gondole di piccolo dia- 
metro montate sotto le ali'. Questi motori consumano una maggiore 



quantità di combustibile di quelli contenuti in gondole di diametro 
maggiore perché la loro resistenza all'aria è relativamente più elevata. 




Lo s\iloppo di motori più grandi, a maggiore rendimento, ha condotto 
alla riprogettazione del 737-200. Il risultato e il 737-300, qui raffigurato 
con il motore montato sul davanti dell'ala, posizione precedentemente 
scartata perché l'analisi tradizionale in galleria de) vento aveva eviden- 



ziato resistenze aerodinamiche troppo elevate per motori cosi disposti. 
Con l'aiuto del supercalcolatore i ricercatori sono riusciti a scomporre 
le varie forze che agiscono su un motore collocato in questa posizione e 
a riprogettarne la gondola in modo tale da rendere minima la resistenza. 



136 



137 



sviluppati per risolvere problemi com- 
plessi dal punto di vista numerico, si ri- 
tiene che un parametro cruciale per mi- 
surarne le prestazioni sia la velocità di 
funzionamento. Il prototipo del primo 
supercalcolatore, realizzato all'iniziode- 
gli anni settanta, è stato il modello CDC 
7600 della Control Data Corporation, 
che funzionava a una velocità di cinque 
milioni di operazioni in virgola mobile 
al secondo ossia di cinque megaflop 
(MFlop). I supercalcolatori odierni han- 
no velocità circa 200 volte superiori, pari 
a circa un miliardo di operazioni in vir- 
gola mobile al secondo, un gigaflop 
(Gflop). 1 quasi-supercalcolatori pre- 
sentano velocità nettamente inferiori, 
ma vantano prestazioni di punta pur 
sempre assai notevoli, con velocità com- 
prese tra 20 e 100 MFLOP. 

Un problema che su un calcolatore 
tradizionale verrebbe risolto in un anno, 
su un supercalcolatoresi può risolvere in 
qualcosa meno di un'ora. Questo grande 
balzo in avanti nella capacità di elabora- 
zione è possibile grazie alla tipica archi- 
tettura parallela e vettoriale che costitui- 
sce l 'hardware del calcolatore. I concetti 
di architettura vettoriale e di architettu- 
ra parallela sono relativamente nuovi 
nella scienza dei calcolatori, fanno co- 
munque riferimento a due metodologie 
note : la struttura concatenata delle unità 
aritmetiche (pipetìned) e il parallelismo, 
ossia la moltiplicazione delle unità di e I a- 
borazione. (Per una discussione più e- 
sauriente si veda l'articolo Architetture 



per (supercalcolatori di Geoffrey C. Fox 
e Paul C. Messina a pagina 28.) Entram- 
bi i metodi possono consentire sostan- 
ziali aumenti della velocità di elabora- 
zione possibile, ma portare a risultati in- 
soddisfacenti qualora il software utiliz- 
zato non sia all'altezza. 

Uno svantaggio dell'architettura vet- 
toriale, che ha un funzionamento abba- 
stanza simile a quello di un nastro tra- 
sportatore o di una catena di montaggio, 
è che la velocità media di movimento 
delle operazioni lungo la catena è limi- 
tata dal tempo necessario per completa- 
re il primo calcolo che entra nel sistema 
e dal numero di calcoli che è possibile 
elaborare lungo la catena. Si tratta di 
una sottigliezza , ma è molto importante : 
i programmi che riducono al minimo il 
numero di calcoli necessario per risolve- 
re un dato problema analitico, ma non 
hanno lunghi flussi ininterrotti di calcoli 
da compiere («vettori lunghi») a volte 
offrono prestazioni scarse. 

In teoria l'elaborazione parallela, nel- 
la quale si fa uso di vari calcolatori col- 
legati che affrontano il problema con- 
temporaneamente, permette potenzial- 
mente velocità illimitate, nel senso che 
un numero n di calcolatori è in grado di 
risolvere un problema in un M-esimo del 
tempo necessario a un solo calcolatore 
per compiere lo stesso lavoro. Ma come 
il «principio de! milione di scimmie» va- 
lido in campo industriale (secondo il 
quale un'opera che impegnerebbe una 
persona per 10 anni non può essere ese- 



guita da un milione di persone in cinque 
minuti), anche il calcolatore parallelo 
può deludere le speranze in esso riposte. 

Tutte e due le architetture, quella vet- 
toriale e quella parallela, sono state in- 
trodotte come mezzi per compiere gran- 
di passi avanti nella potenza di calcolo, 
ma valutare le prestazioni di un super- 
calcolatore solo in termini di operazioni 
al secondo è un pò* come valutare la qua- 
lità di varie autovetture sportive esclusi- 
vamente sulla base della velocità massi- 
ma, senza prendere inconsiderazione al- 
tri fattori come l'accelerazione, la tenuta 
di strada in curva e le condizioni di strada 
che essa può affrontare. 

Anche le prestazioni di un calcolatore 
dipendono da tutta una serie di fattori 
tra i quali vanno annoverate le dimen- 
sioni della memoria, la capacità di ma- 
nipolare pìccole matrici di numeri (vet- 
tori piccoli), la velocità alla quale posso- 
no essere elaborate quantità discrete di 
dati e le possibilità intrinseche dei soft- 
ware con cui esso è compatibile. I calco- 
latori che hanno buone prestazioni all'e- 
stremità superiore della gamma, capaci 
cioè di elaborare molto rapidamente 
grandi quantità di dati, non danno sem- 
pre buona prova di sé all'estremità infe- 
riore, quando cioè occorre elaborare 
piccole quantità discrete di dati; pur- 
troppo, però, la maggior parte delle ap- 
plicazioni richiede calcoli di entrambi i 
generi. 

La velocità, dunque , non è l'unico fat- 
tore a determinare le prestazioni di cui è 




Il Boeing 7J7. mostrato schematicamente nell'i I lustrazione, è l'aereo 
che segna l'inizio di una nuova epoca della propulsione a reazione. I 
motori, installati presso la coda, muovono eliche a pale scoperte, che 



sono più efficienti di quelle intuhale dei motori a reazione tradizionali, 
permettendo consistenti economie di combustibile. Il progetto non sa- 
rebbe stato possibile senza l'analisi delle variabili al supercalcolatore. 



capace un calcolatore. Il rendimento di 
un calcolatore dipende anche da due al- 
tri fattori: la dimensione della memoria 
e la velocità di movimento dei dati fra 
questa e le unità di elaborazione interne. 

La memoria è un fattore determinante 
' per le prestazioni di un calcolatore, 
tanto che la velocità di un calcolo dipen- 
de spesso dalle dimensioni dei banchi di 
memoria della macchina. Spesso si for- 
mano «imbottigliamenti» semplicemen- 
te a causa del volume di dati da manipo- 
lare. Talvolta, il trasferimento di grandi 
quantità di dati dai dispositivi di registra- 
zione secondari alla memoria e viceversa 
è, in termini di tempo, l'aspetto più di- 
spendioso. Anche se le memorie dei su- 
percalcolatori stanno crescendo a un tas- 
so paragonabile a quello della potenza di 
calcolo, in alcuni casi risultano ancora 
inadeguate. Il CDC 7600 dei primi anni 
settanta aveva una memoria capace di 
500 000 numeri a quindici cifre, mentre 
il Cray-2, costruito quasi quindici anni 
più tardi, ha una capacità 512 volte mag- 
giore e può quindi conservare nella pro- 
pria memoria 256 milioni di numeri a 15 
cifre. Ma, al crescere della complessità 
dei calcoli, anche una memoria della ca- 
pacità di vari miliardi di parole potrebbe 
rivelarsi insufficiente per le necessità del 
futuro. Per attingere al contenuto di un 
banco di memoria così imponente po- 
trebbero occorrere vasti e profondi cam- 
biamenti anche nella progettazione del 
software. 

Pure importante è armonizzare le ca- 
pacità di un supercalcolatore alle esigen- 
ze specifiche dell'utente. Per esempio, la 
velocità di punta di un supercalcolatore 
ha poca importanza per un ricercatore di 
aerodinamica che studi le sollecitazioni 
attive su un'ala; quello che gli importa è 
la rapidità con cui la macchina riesce a 
produrre il complesso modello matema- 
tico dell'ala e a sottoporlo alle prove di 
sollecitazione. La rapidità di risoluzione 
da parte del calcolatore di un problema 
matematico complesso con numerose 
variabili può risultare quindi più impor- 
tante della velocità alla quale la stessa 
macchina è in grado di elaborare una 
matrice di numeri ben costruita. Ciò 
equivale a stabilire le prestazioni di una 
macchina sportiva su una strada tortuosa 
di montagna, invece che misurarne la ve- 
locità massima su un tratto autostradale 
rettilineo e pianeggiante. 

In entrambi i casi, il puro e semplice 
numero di calcoli compiuti da un super- 
calcolatore può risultare impressionan- 
te. I calcolatori convenzionali, che pos- 
sono fornire il valore numerico di un'e- 
spressione per 50 punti diversi di una gri- 
glia piana, valutato in venti momenti di- 
versi, sono surclassati dai supercalcola- 
tori. che riescono a produrre i dati rela- 
tivi a una griglia di 50 000 punti in 200 
momenti diversi nel tempo. Per fortuna, 
parallelamente allo sviluppo dei super- 
calcolatori, l'industria elettronica ha po- 
tenziato la capacità delle stazioni di la- 



D 



a dicembre è disponibile in edicola e in libreria 
il nuovo quaderno di «Le Scienze» 
dedicato a L'ATTIVITÀ VULCANICA. In esso 

il noto esperto Paolo Gasparini 
ci guida alla scoperta delle più recenti conquiste 

della ricerca 



LE SCIENZE 

quaderni 




vulcanologica 
inquadrandola 
nel modello teorico 
della tettonica 
a zolle. 



Sei QUADERNI all'anno. 
Prezzo di copertina: L, 7000. 



In questo numero: 

/ punti caldi detta Terra di G.E. Vink. V/.J. Morgan e P.R. Vogt 

Da un rift continentale a un rift oceanico di E. Bona tri 

Vulcani sottomarini di R. Hékinian 

Le sorgenti calde sul fondo degli oceani di J.M. Edmond e K. Von Damm 

Magmi in azione: Campi Flegrei, Long Valley, Rabaul di P. Gasparini 

Yellowstone: finestra sull'interno della Terra di R.B. Smith e R.L. Christiansen 

Le eruzioni vulcaniche esplosive di R. Scandone 

L 'eruzione del Krakatoa di P. Francis e S. Self 

Miti ed eruzioni di R. Scandone 

Crollo dei vulcani dì P, Francis e S. Self 

L'attività vulcanica su altri pianeti di P. Gasparini 



138 



139 




In questo modello tridimensionale al supercalcolalore di una gondola Isolala, i colorì rappresen- 
tano i diversi valori di velocità dell'aria che scorre dentro e fuori la gondola durante il volo. La 
velocità del flusso d'aria è massima presso il bordo d'attacco interno della gondola I in giallo), 
dove Parìa viene incanalata attraverso l'alloggiamento del motore e dentro di esso, mentre risulta 
minima verso la parte posteriore della gondola Un fiata) e intermedia all'esterno Un verde). 



varo di convertire tali dati in immagini, 
altrimenti sarebbe virtualmente impossi- 
bile decifrare l'enorme quantità di dati 
prodotti. Inoltre avendo a disposizione 
una serie di immagini grafiche in succes- 
sione temporale si può metterle insieme 
e osservarle come un film che presenti i 
dati visivamente, simulando realistica- 
mente un processo fisico. Si può, per 
esempio, rappresentare il flusso delle 
particelle di aria su un'ala come uno 
scorrimento continuo, permettendo agli 
studiosi dì aerodinamica di visualizzare 
le forze che agiscono sull'ala. È possibi- 
le, inoltre, ed è altrettanto importante, 
modificare il progetto sullo schermo ma- 
nipolando le variabili del modello alla 
stazione di lavoro e in questo modo in- 
dividuare con esattezza l'una o l'altra 
componente della turbolenza. 

L'efficacia dei supercalcolatori, come 
quella di tutti i calcolatori, dipende dal 
software e ciò vale soprattutto ne! cam- 
po della produzione industriale: se infat- 
ti può risultare abbastanza facile modifi- 
care o ricostruire un programma per la 
ricerca di base sul supercalco latore, è 
molto più difficile modificare un pro- 
gramma lungo magari 100 000 righe che 



funziona in un ambiente assoggettato ad 
alcune procedure assai rigide di control- 
lo della produzione e rappresenta un 
componente critico del ciclo industriale 
che va dal progetto al prodotto. Dal pun- 
to di vista di un'industria media il tempo 
necessario per elaborare un nuovo pro- 
gramma e poi controllarne l'affidabilità 
e la precisione può risultare proibitivo. 
È quindi preferibile che i software siano 
in grado dì compiere il passaggio da un 
tipo di architettura all'altro. In realtà, 
però, ciò non risulta sempre possibile. 
Di conseguenza, proprio come le fabbri- 
che sono state ristrutturate e moderniz- 
zate per introdurvi l'automazione, sarà 
necessario ristrutturare completamente 
software antiquati per introdurre una 
nuova generazione di programmi che 
siano al passo con la nuova generazione 
di calcolatori. 

Cono stati compiuti alcuni tentativi per 
« progettare strumenti di supporto al 
passaggio del software dai calcolatori 
tradizionali a quelli della generazione 
avanzata, ma senza molto successo. Uno 
di questi strumenti è il «compilatore in- 
telligente» in grado di «vettorizzare» au- 



tomaticamente i programmi, cioè di tra- 
sformare le istruzioni di un linguaggio di 
alto livello in istruzioni specifiche per i 
calcolatori vettoriali. Dal momento però 
che un compilatore può solo riordinare 
le istruzioni di un programma e non 
identificare nuovi algoritmi o nuove tec- 
niche di soluzione del problema più 
adatti al su perca (colatore, questo meto- 
do presenta dei limiti. 

L'unica risposta al problema del soft- 
ware, secondo molti esperti di calcolato- 
ri, sta nella stesura dei programmi in un 
nuovo linguaggio progettato apposita- 
mente per le macchine vettoriali o per 
quelle parallele. I linguaggi più consueti, 
come il FORTRAN, pilastro del calcolo 
scientifico negli ultimi 20 anni, andreb- 
bero quindi sostituiti da un linguaggio 
più adatto alla tecnologia avanzata dei 
supercalcolatori. Ma il tempo necessario 
per lo sviluppo di un nuovo linguaggio, 
la sua implementazione da parte dei for- 
nitori di hardware e infine da parte degli 
utenti che devono riscrivere, verificare e 
convalidare miliardi di dollari di soft- 
ware, sarebbe enorme, se non proibiti- 
vo. Persino l'effettuazione di modifiche 
limitate ai linguaggi di programmazione 
può essere lenta. La realizzazione di un 
nuovo standard per il linguaggio FOR- 
TRAN, il fortran 8X, per fare solo un 
esempio, è iniziata quasi 10 anni fa, ver- 
so la fine degli anni settanta, eppure non 
sembra probabile che questa versione 
venga accettata e si diffonda prima del- 
l'inizio del prossimo decennio. E quan- 
d'anche ciò avvenisse, il fortran 8X è 
limitato a funzionare con la massima ef- 
ficienza su calcolatori ad architettura 
avanzata. Perciò l'evoluzione di nuovi 
linguaggi di elaborazione risolverà solo 
una piccola parte del problema e con 
lentezza. 

Un'altra alternativa riguarda una ca- 
tegoria di software che è costituita da 
programmi realizzati con «blocchi» di 
elaborazione dati. Questi blocchi da co- 
struzione sono algoritmi preprogramma- 
ti accettati come procedure standard da 
una determinata comunità di utenti. 1 
blocchi da costruzione presentano tre 
vantaggi: hanno un'interfaccia standard 
con i linguaggi e quindi si possono usare 
su qualsiasi calcolatore; sono finemente 
sintonizzati con l'architettura dell'hard- 
ware e sono progettati specificamente 
per eseguire i calcoli di uso più comu- 
ne, come le operazioni su matrici, te tra- 
sformazioni di Fourier e l'ordinamento, 
quelle operazioni che costituiscono la 
spina dorsale di molti problemi analitici 
complessi. Dato che spesso una grossa 
fetta del tempo di calcolo è impiegata 
per compiere elaborazioni di questo ge- 
nere, questi blocchi da costruzione, che 
sono anche relativamente economici da 
realizzare, possono portare enormi ri- 
sparmi di tempo e denaro. Le due 
«librerie» di blocchi di software della 
Boeing (BCSLIB, Mathematical/Statisti- 
cal Library e Vectorpak Subroutine Li- 
brary) vengono utilizzate centinaia di 



142 



milioni dì volte all'anno abbinate al sti- 
pe rea Icol a to re Cray X-MP e ad altri cal- 
colatori industriali avanzati. 

I blocchi da costruzione presentano 
un vantaggio oltre alla loro capacità di 
eseguire calcoli complessi: permettono a 
chi li usa di verificare la validità di un 
particolare metodo di simulazione prima 
di sviluppare un qualsiasi programma 
applicativo che lo utilizzi. Confrontando 
vari modi di affrontare lo stesso proble- 
ma prima di praticarne uno, i blocchi da 
costruzione permettono all'utente di ri- 
sparmiare tempo e denaro. 

"Nonostante la potenza e lo sviluppo 
*-^ impressionante dei supercalcolato- 
ri, permane un altro ostacolo alla loro 
diffusione su vasta scala: la difficoltà in- 
sita nell'integrazione di tre componenti 
del sistema, cioè l'utente, la stazione di 
lavoro grafica e il supercalcolatore vero 



e proprio. I calcolatori tradizionali abi- 
tualmente sono collegati all'utente tra- 
mite linee telefoniche che permettono lo 
scambio dei dati alla velocità di 1200 
baud (bit al secondo). Per i supercalco- 
latori, tuttavia, macchine capaci di ma- 
nipolare enormi volumi di dati, comuni- 
care ad appena 1200 baud è come tentare 
di vuotare il mare con un cucchiaio: 
la trasmissione molto veloce di grandi 
quantità di dati a grande distanza, via 
cavo, non è possibile. 

La comprensione dei limiti cosi impo- 
sti è cruciale per l'impiego e per lo svi- 
luppo dei supercalcolatori: è possibile 
che i dati immessi da un tecnico in un 
supercalcolatore ed elaborabili in cinque 
minuti (al posto delle 12 ore necessarie 
in un calcolatore tradizionale) restino 
poi bloccati per 12 ore all'uscita. Oggi le 
linee interurbane di molti paesi sono in 
grado di elaborare anche 56 chiiobit di 




Lo studio dei modelli di componenti aerodinamiche in galleria del vento ad alta velocita, sehhene 
oggi abbondantemente affiancalo dai modelli realizzati al calcolatore, svolge ancora un ruolo 
importante nelle Tasi Tina li della progettazione. Questo motore a eliche a pale controrolanli è 
montato su un pilone dove può essere collaudato Uno a velocità di oltre 900 chilometri orari. 
Nelle prove in galleria vengono installali numerosi misuratori della velocità dell'aria che sono 
anche muniti di microfoni per rilevare i livelli di rumore prodotti dalle pale delle eliche. 



informazioni al secondo, ma anche a 
questa velocità sono troppo lente per nu- 
merosi problemi affidati ai supercalcola- 
tori. E la realizzazione di animazioni 
grafiche (che illustrino, per esempio, il 
flusso delle particelle sull'ala di un ae- 
reo) richiede ancora più tempo: invece 
di analizzare un singolo insieme di varia- 
bili una volta sola il supercalcolatore de- 
ve provvedere a effettuare una serie di 
calcoli e poi inviare all'uscita una serie 
di illustrazioni: tutto movimento aggiun- 
tivo che si somma al traffico di dati sulla 
rete di comunicazione. Per questi motivi 
alcuni utenti hanno rinunciato alla co- 
municazione mediante linee telefoniche 
constatando che lo scambio di dati per 
corriere aereo espresso risulta più velo- 
ce. Sebbene la soluzione non sia ideale, 
va diffondendosi sempre più. 

T a Alabama Supercomputer Network 
■1— ' Services di Huntsville, che dovrebbe 
iniziare l'attività nel gennaio 1988, ha 
adottato un'altra soluzione. Il supercal- 
colatore là installato dovrebbe trasmet- 
tere dati tra i vari campus dell'Università 
dell'Alabama alla velocità di 1 ,5 milioni 
di bit al secondo. Su scala più vasta, na- 
zionale o continentale , un sistema simile 
avrebbe un costo proibitivo, ma dato che 
la rete di calcolatori dell'Alabama anno- 
vera un piccolo numero di località si pre- 
vede che il meccanismo funzioni bene. 

L' Ames Research Center della Natio- 
nal Aeronautics and Space Administra- 
tion a Moffett Field. in California, sede 
del supercalcolatore forse più potente 
del mondo, ha adottato un metodo al- 
ternativo per risolvere il problema di co- 
municazioni su grande distanza, soluzio- 
ne funzionale ad alcuni dei problemi di 
ricerca della Nasa. I funzionari dell'ente 
hanno collocato alcune stazioni di lavoro 
di grande potenza nelle immediate vici- 
nanze del supercalcolatore centrale, eli- 
minando così completamente la necessi- 
tà di linee di trasmissione su grande di- 
stanza. Anche il quartier generale della 
Boeing Computer Services Company di 
Bellevue, Washington, ricorre a un siste- 
ma analogo. Un gruppo di esperti di ae- 
rodinamica al calcolatore è collegato al 
Cray X-MP da una serie di stazioni di 
lavoro grafiche alloggiate in un labora- 
torio non lontano dal supercalcolatore. 
Questa disposizione riduce a un paio di 
centinaia di metri la distanza di trasmis- 
sione dei dati. 

Un secondo passo verso l'integrazione 
sta nel concentrare l'attenzione più sulla 
stazione di lavoro come mezzodì poten- 
ziamento della produttività che non sul 
supercalcolatore. Sì tratta di una confi- 
gurazione «amichevole verso l'utente» 
nella quale il ricercatore o il tecnico la- 
vora a un calcolatore personale o a una 
stazione di lavoro utilizzando software 
applicativi standard. In tal caso è la sta- 
zione di lavoro a gestire direttamente 
tutte le comunicazioni con il supercalco- 
latore. utilizzando software che comuni- 
cano con l'utente nel linguaggio applica- 



tivo di quest'ultimo. I dati vengono im- 
messi direttamente nel supercalcolatore , 
dove vengono trasformati dal calcolato- 
re in codici vettorizzatt, mentre la perso- 
na al terminale non è vincolata a un lin- 
guaggio di alto livello. Il fatto che l'ana- 
lisi sìa stata affidata al supercalcolatore 
traspare solo considerando la complessi- 
tà dei risultati. 

Per quasi tutte le applicazioni il soft- 
ware amichevole verso l'utente è ostaco- 
lato dalla lentezza delle reti di comuni- 
cazione e dalla potenza limitata dei cal- 
colatori personali. La Boeing ha comun- 
que realizzato un servizio (The Petro- 
leum Gallery Services) come parte di 
una serie integrata di prodotti progettati 
per l'industria petrolifera. Questo servì- 
zio permette ai geologi di avvalersi, per 
la cartografia e l'analisi dei giacimenti, 
di un'unica fonte di dati, applicazioni e 
potenza di calcolo. 

Nonostante questa scarsità di progres- 
si per quanto riguarda l'integrazione, si 
giungerà a utilizzare appieno le vere po- 
tenzialità del supercalcolatore nella pro- 
duzione industriale solo quando si riusci- 
rà a integrare l'analisi al calcolatore, in 
cui queste macchine eccellono, con il 
processo produttivo, sul quale hanno 
avuto finora un'influenza diretta assai 
scarsa. L'importanza di un'integrazione 
tra l'analisi del progetto del prodotto e 
la produzione deriva da ottime ragioni. 

Durante l'analisi al calcolatore di un 
progetto non vengono quasi mai prese in 
considerazione alcune informazioni cru- 
ciali per il processo produttivo, quali le 
tolleranze di progetto, i compromessi 
imposti dai costi di produzione e i pro- 
blemi di affidabilità a lunga scadenza. 
Integrando esigenze di produzione come 
queste nell 'analisi iniziale del progetto di 
un prodotto si può giungere a compro- 
messi che tengano conto sia delle presta- 
zioni, sìa delle esigenze produttive. 

L'integrazione sopra descritta non si è 
ancora verificata per varie ragioni. In 
primo luogo i supercalcolatori non esi- 
stono da molto: sono passati dal labora- 
torio all'industria poco meno di 10 anni 
fa e sono quindi troppo recenti per aver 
avuto una qualche influenza sui numero- 
si prodotti che escono oggi dalle catene 
dì montaggio. Il processo di progettazio- 
ne impone infatti che il rapporto tra CAD 
e Cam resti stabile per tutto il periodo 
della progettazione di un prodotto, spes- 
so abbastanza prolungato. Quindi oc- 
corre mantenere un rigoroso controllo 
della configurazione dì software, hard- 
ware e dati per molti anni. 1 mutamenti 
rapidi nell'architettura dei calcolatori 
avanzati e quelli corrispondenti del soft- 
ware non sono compatibili con queste 
esigenze di stabilità; un prodotto come 
un aereo commerciale, per esempio, su- 
bisce una lunga trasformazione tra la for- 
mulazione originaria del progetto e la 
produzione finale. Data la forte interdi- 
pendenza tra ì componenti, inoltre, un 
cambiamento progettuale in uno stimo- 
lerà mutamenti analoghi in alcuni altri. 



Ne consegue che varie fasi del processo 
di progettazione vengono «congelate» a 
un certo punto, dimodoché, non essen- 
do possibili ulteriori cambiamenti, l'in- 
tero processo cad/cam risulta come 
«pietrificato». 

Con l'entrata in produzione di vari 
modelli di calcolatore ancora in fase di 
sviluppo questo stato di cose forse Gam- 
biera, ma è necessario menzionare un 
secondo problema, e precisamente il fat- 
to che, nonostante i notevolissimi bene- 
fici che deriverebbero dall'integrazione 
tra cad e Cam, i due componenti non 
sono sempre compatibili l'uno con l'al- 
tro. Può darsi, per esempio, che una si- 
mulazione aerodinamica stabilisca che 
una data ala abbia una certa forma con 
lo scopo di fornire il massimo rendimen- 
to e che però il progetto si scontri con le 
esigenze di produzione. Magari il metal- 
lo non sì può piegare secondo il progetto 
del supercalcolatore o risulta troppo pe- 
sante o fragile per una data forma. 

1 modelli al calcolatore per l'analisi 
particolareggiata del flusso aerodinami- 
co mettono sotto sforzo persino le capa- 
cità dei supercalcolatori odierni; l'elabo- 
razione di calcoli enormemente com- 
plessi che coinvolgono svariati parametri 
di incertezza e di tolleranza necessari per 
un'integrazione completa tra cad e CAM 
rimane fuori della portata dei calcolatori 
oggi esistenti. In considerazione di que- 
sti limiti , i supercalcolatori non sono an- 
cora stati adottati per certi problemi di 
calcolo; ciò, tuttavia, non tiene nel de- 
bito conto una delle loro caratteristiche 
migliori: la velocità con cui i dati posso- 
no essere elaborati. 

Alla fine i supercalcolatori potranno 
forse integrarsi con l'intelligenza artifi- 
ciale, un campo di elaborazione attual- 
mente dominato più dal calcolo simboli- 
co che non da quello numerico e spesso 
affidato a dei calcolatori specializzati. 
In teoria dovrebbe essere possibile, un 
giorno o l'altro, utilizzare l'intelligenza 
artificiale per acquisire una migliore pa- 
dronanza dei grandi insiemi di dati nu- 
mericamente complessi elaborati oggi 
dai supercalcolatori. 

E ragionevole sostenere che oggi l'e- 
laborazione dei dati mediante su- 
percalcolatori si trovi in una fase di tran- 
sizione nella quale avvengono contem- 
poraneamente cambiamenti in molte di- 
rezioni: potenza, architettura, capacità 
analitiche, requisiti di competitività e in- 
telligenza artificiale. I supercalcolatori 
hanno rivoluzionato l'industria aeronau- 
tica in misura tale che la ricerca di calco- 
latori sempre più veloci e potenti prose- 
gue con crescente alacrità. I prossimi 
cinque anni saranno particolarmente im- 
pegnativi, non solo perché le occasioni 
per un grande passo avanti tecnologico 
sono numerose, ma anche perché, in 
quest'epoca di aspra concorrenza inter- 
nazionale, la tecnologia delle maggiori 
potenze economiche dipende forse pro- 
prio dal supercalcolatore. 



ARCHITETTURA 
E ARTE 

LL SCI t. [N LL, adizione italiana di 

SCIENTIFIC AMERICAN 



ha dedicato all'argomento 
diversi articoli: 



L'origine dell'ambiguità 
nelle opere di Maurlts C. Escher 

di M. L. Teuber (n, 75) 



Pi e ter Bruegelil Vecchio 
e la tecnica del Cinquecento 

dìH. A. Klein (n. 117) 



La conservazione della pietra 
diK. L. Gauri(n. 120) 



Norme architettoniche 

nella Cina del XII secolo 

di E. Glahn (n, 155) 



L'architettura di Christopher Wren 

di H. Dorn e R. Marck (n, 157) 



Intarsi rinascimentali: 
l'arte della geometria 

di A. Tormey e Y, Farr Tormey (n. 1 69) 



Le volte a ventaglio 
di W.C. Leedy, Jr. (n. 176) 



La chiese di legno della Norvegia 

di P. Anne, RI.. Sack e A. Selberg 
(n. 182) 



ti Crystal Palace 

di F. T. Kihlstedt (n. 196) 



Sperimentazione strutturale 
nell'architettura gotica 

di R. Mark e W. W. Clark (n. 197) 



Il restauro delle vetrate 
medioevali 

di G. Frenzel (n. 203) 



144 



145 



» 

. ■- 1 -j, -m* »-*"*■**"*"•■*" * * 

ì 

I 



ì 

1 - -. Vi' ■ 1^1,1 % i 

- 

■rt * usti? ! ? ;; r^»7 ; 
I 

i 



■- 
fi 



;:::»:::.:jmj« 



ì ' 
i 

. ... . . - nni'--,' 

i 

♦ vilumi Vi' *iimt>< . 

• 

• ■ 

« 

i 






i 

titilli» *t ti ■ 

i" I 





j 

i 




*■■'"» 


.. 




.:■ 




< 




"i 




,1 



< 



:'i.'W. JlL'lRj 






': 

: 

.! 
| 

:j;::o:.::" r;. . 
1 li 

:: 

' 
:: 

i 






3KTSI 






; 



rjcrtia 



i'TJr-Jis 



te - : 



ìlt-SlLilU 



t-'j»ij»j; 



> 

JXCDJ 

;. - . j-r i ■ 

« 

fc T 
, ... : 
1 
— I JJ 

P T 

:.;: - 'jjjjj. . 



EiLiilS 






J 






+;,;jV/?2.ì$ 


* ifò'j'X?**. * 




1 




-frWWJÌtiZ m3J3Tiìt. 




\\ l 


•*%•> .-«ri 


T |< I 










' 







i $ r- 

«/■'«. , . ■ 

I 

«^ ..:■. 

II 

li 

ìv..w/i.;ì ;jw...,,, 
- 

fi t ■ 

1 >' 
| 

t'»JJJlll*J « jVj Uri. 



«SIB^Kj 



«■■HJJ.rjJ.iB 






j: 



i'."«_il< 



■■ 

MiVAi'h i.JiWni 

'' 

^^,.,V«JJ...., 

■/l'i !*»*■•* l^i'lHIl 

I*. 



,,.-* "xg .,= 

ni? *ffy sa 



lllllllllll 

?.. 

'..'■ 

•A -• 

1*8, 

■ ■ - 

"4 



Architetture 
per i supercalcolatori 

/ calcolatori avanzati, al contrario dei tradizionali, possono affrontare 
simultaneamente parti diverse di uno stesso problema, con vantaggi simili 
a quelli che si hanno suddividendo un lavoro, per sveltirlo, fra più operai 

di Geoffrey C. Fox e Paul C. Messina 



Supponete di sovrintendere alla co- 
struzione di una casa e di aver 
deciso di affidare l'intero lavoro 
a un singolo operaio. L'operaio affron- 
terebbe il progetto in maniera sequen- 
ziale: espleterebbe ognuno dei compiti 
(disposizione dei mattoni, installazione 
dell'impianto elettrico e di quello idrau- 
lico) un passo per volta, eseguendo le 
diverse partì di ogni lavoro secondo un 
certo ordine. 

Questo modo di costruire una casa 
sembra inutilmente lento. Molti compi- 
ti, come per esempio la posa dei matto- 
ni, potrebbero essere assolti più veloce- 
mente se venissero ripartiti tra diversi 
muratori simultaneamente all'opera; al- 
tri compili, come l'installazione dell'im- 
pianto elettrico e di quello idraulico, so- 
na indipendenti l'uno dall'altroe potreb- 
bero essere eseguiti nello stesso tempo 
da squadre di operai distinte. Tuttavia, 
il lento metodo sequenziale che abbiamo 
descrìtto sopra, con l'operaio che esegue 
il lavoro un passo per volta, rappresenta 
una buona analogia con il criterio di ela- 
borazione seguito dalla maggioranza dei 
calcolatori moderni. 

Gran parte dei calcolatori è dotata di 
una singola unità di elaborazione, l'unità 
adibita a operazioni di calcolo come l'ad- 
dizione, la moltiplicazione o il confronto 



di due numeri. I programmatori scom- 
pongono ogni blocco di elaborazione in 
una sequenza di passi (il programma) e 
l'unità di elaborazione del calcolatore 
esegue la sequenza per passi successivi. 
Questo metodo è intrinsecamente lento 
perdue ragioni. In primo luogo, durante 
ogni fase di un calcolo diverse parti del- 
l'unità di elaborazione rimangono inat- 
tive; la procedura per moltiplicare due 
numeri, per esempio, richiede diversi 
passi e l'insieme di circuiti che potrebbe 
eseguirne uno deve necessariamente ri- 
manere inattivo finché l'altro non sia 
completato. In secondo luogo, analoga- 
mente a quanto avviene nella costruzio- 
ne di una casa, molti blocchi di elabora- 
zione sono composti da sottoblocchi in- 
dipendenti, che potrebbero essere ese- 
guiti simultaneamente da distinte unità 
di elaborazione. 

I progettisti di architetture avanzate di 
calcolatori stanno sviluppando alcuni 
metodi in grado di superare entrambe 
queste cause di lentezza. Da una parte, 
sono allo studio alcuni metodi per incre- 
mentare la velocità delle singole unità di 
e laborazi o ne . consc nte ndo a p i ù co m po- 
nenti dell'unità di elaborazione l'atti- 
vazione simultanea; dall'altra, sono in 
via di sviluppo sistemi in cui le diverse 
unità di elaborazione sono collegate tra 



L'elaborazione parallela, nella quale un singolo compito è ripartito tra diverse unita di elaho- 
razione. è illustrata da questa scheda proveniente da un calcolatore MTBK. Ognuno dei 64 
quadrati marroni è una unità di elaborazione di potenza paragonabile a quella di un minicalco, 
latore VAX 1 1/750. 1 rettangoli neri sono unità di memoria: a ogni unità di elaborazione ne sono 
assegnate sei (per un totale di mezzo megabyte). Il calcolatore a cui appartiene questa scheda 
può contenere da 1 a 16 schede (vale a dire, fino a 1024 unità di elaborazione! oltre a una scheda 
di controllo, su cui è montata un'unità di elaborazione principale che assegna lavoro e dati alle 
altre unità. Questo calcolatore rappresenta una soluzione intermedia nell'ambito dell'elabora* 
/.ione parallela. Alcuni sistemi paralleli hanno un numero minore di unità di elaborazione più 
potenti I il Cray X'MP. in una particolare configurazione, è costituito da quattro supercalcolatori 
connessi in parallelo i, mentre altri presentano un gran numero di unità di elaborazione meno 
.sofisticate (la Connection Machine comprende 65 536 unità di elaborazione molto semplici I. 



loro per dare luogo a ciò che viene chia- 
mato unità a elaborazione parallela o 
calcolatore parallelo. Entrambe queste 
soluzioni prevedono che diversi passi di 
elaborazione possano essere svolti con- 
temporaneamente. 

pome si può incrementare la velocità 
*— ' di una singola unità di elaborazio- 
ne? Una rilevante fonte di lentezza nelle 
unità convenzionali di elaborazione ri- 
guarda l'accesso alla memoria. Se un da- 
to o un'istruzione devono essere letti da 
un banco di memoria prima che una cer- 
ta operazione di calcolo possa essere ese- 
guita, durante questo processo tutte le 
unità funzionali (i circuiti logici dell'uni- 
tà di elaborazione che eseguono i singoli 
passi del calcolo) devono necessaria- 
mente rimanere inattive. Alla fine del- 
l'operazione può accadere che il risulta- 
to di un calcolo debba a sua volta essere 
caricato in memoria, comportando un 
ulteriore lasso di tempo durante il quale 
nessuna unità funzionale è attiva. Si è 
trovata la soluzione a questo problema 
progettando macchine in cui, mentre 
viene eseguita un'istruzione, l'insieme di 
istruzioni successive viene già letto dalla 
memoria e decodificato, ossia suddiviso 
in operazioni che possono essere esegui- 
te dalle varie unità funzionali. 

L'accesso alla memoria può anche da- 
re luogo a strozzature quando più dì un 
operando deve essere letto dalla memo- 
ria prima che una operazione possa es- 
sere eseguita (per esempio, nel caso in 
cui si debbano moltiplicare due numeri 
caricali in memoria): mentre il canale di 
connessione con la memoria è impegna- 
to nella lettura del primo operando, 
il secondo non può essere letto. Come 
si può progettare una memoria da cui 
sia possibile richiamare simultaneamen- 
te più di un dato? 

La risposta, un sistema conosciuto co- 
me memoria intercalata, è particolar- 

29 



mente efficace per alcuni tipi di calcoli 
numerici nei quali grandi quantità di nu- 
meri vengono elaborati in successione. 
Una memoria intercalata consiste gene- 
ralmente di alcune unità dì memoria, ot- 
to o sedici, accessibili separatamente. li 
primo indirizzo di memoria (cioè l'allo- 
cazione in cui si trova il primo numero 
da elaborare) è nella prima unità di 
memoria, il secondo indirizzo è nella se- 
conda unità e così vìa. Se vi sono otto 
unità, il nono indirizzo si trova di nuovo 
nella prima unità, il decimo indirizzo 
nella seconda e così via. In questo modo 
è possibile comunicare nello stesso tem- 
po con diverse unità di memoria attra- 
verso canali distìnti e i dati su cui bisogna 
operare nel medesimo istante possono 
essere letti simultaneamente, senza do- 
ver attendere che i canali di comunica- 
zione si liberino. 

Un'altra causa di lentezza è intrinseca 
al processo di calcolo. Come ben sa 
chiunque abbia provato a moltiplicare a 
mano due numeri di sette cifre, le ope- 
razioni aritmetiche possono richiedere 
molti piccoli passi. Quando una unità di 
elaborazione moltiplica due numeri in 
virgola mobile (numeri che non sono ne- 
cessariamente interi), deve in primo luo- 
go scomporre ogni numero in un espo- 
nente e una mantissa (secondo la no- 
tazione scientifica), quindi sommare gli 
esponenti, moltiplicare le mantisse (ope- 
razione che di per sé può richiedere l'e- 
secuzione di molti passi) e, infine, espri- 
mere il risultato in notazione scientifica. 
L'unità funzionale adibita alla moltipli- 
cazione in virgola mobile può essere di- 
visa in segmenti, ciascuno dei quali può 
eseguire uno di questi compili. Pertanto, 
in una semplice unità di elaborazione, 
solo un segflfento alla volta è operativo, 
mentre gii altri rimangono inattivi e que- 
sto comporta una grande perdita di po- 
tenza di calcolo. 

La soluzione di questo problema può 
presentare molte analogie con una cate- 
na di montaggio per automobili. Una ca- 
tena di montaggio produce in genere una 
vettura al minuto, È ovvio che questo 
ritmo non viene mantenuto facendo la- 
vorare simultaneamente migliaia di o- 
perai su un'automobile alla volta. Al 
contrario, il processo di costruzione di 
un'automobile è suddiviso in compiti mi- 
nori, ciascuno dei quali è svolto da una 
particolare stazione di montaggio. A 
mano a mano che l'automobile non an- 
cora ultimata raggiunge una stazione di 
montaggio, l'operaio addetto a quella 
stazione esegue il suo compito, imbullo- 
nando la testata del motore o installando 
l'autoradio. È la ripetizione su larga sca- 
la di questi piccoli compiti che consente 
la velocità di produzione caratteristica 
della catena di montaggio. 

Si possono anche predisporre «catene 
di montaggio» per operazioni in virgola 
mobile ; sono chiamate strutture a catena 
(pipeline) e sono particolarmente ef- 
ficienti nelle applicazioni che richiedo- 



no diverse ripetizioni di una medesi- 
ma operazione aritmetica. Supponiamo, 
per esempio, che un certo programma 
preveda la moltiplicazione di diverse 
coppie di numeri. Supponiamo inoltre, 
per semplicità, che ognuno dei piccoli 
compiti richiesti dalla moltiplicazione in 
virgola mobile richieda un tempo pari a 
un passo dell'orologio intemo del calco- 
latore. A ogni passo dell'orologio una 
nuova coppia di numeri entra nel seg- 
mento di elaborazione che esegue il pri- 
mo compito. Se il compito richiede, per 
esempio, dieci segmenti, alla fine del de- 
cimo passo dell'orologio il prodotto del- 
la prima coppia di operandi sarà pronto, 
il prodotto della seconda coppia sarà 
quasi pronto, la terza coppia avrà ancora 
due tappe da compiere e così vìa; l' un- 
dicesima coppia sarà appena entrata nel- 
la catena e la dodicesima coppia, e dopo 
di essa le successive, sarà in procinto di 
entrarvi. 

Le variazioni di velocità che una strut- 
tura a catena può produrre nelle opera- 
zioni di un calcolatore dipendono dai 
suoi dettagli strutturali. Così come si 
possono progettare strutture a catena 
per operazioni aritmetiche, è possibile 
progettarne per operazioni di trasferi- 
mento dati e lettura dalla memoria. Per 
esempio, se una operazione di calcolo 
richiede due o più dati presenti in me- 
moria e se una lettura dalla memoria ne- 
cessita di svariati passi dell 'orologio, con 
una struttura a catena si può fare in mo- 
do che l'unità di elaborazione inizi a ri- 
chiedere un dato a ogni passo dell'oro- 
logio, senza dover attendere che il primo 
dato sia arrivato dalla memoria per poter 
richiedere il successivo. 

Dal momento in cui una catena di 
montaggio per automobili viene avviata, 
trascorre un certo lasso di tempo prima 
che esca il primo esemplare completa- 
mente assemblato. Quando un'automo- 
bile esce finalmente dalia catena, il suo 
processo di costruzione è durato giorni, 
anche se la capacità produttiva è di un 
esemplare al minuto. In una struttura a 
catena il tempo che trascorre tra l'inizio 
dell'elaborazione e l'apparire del primo 
risultato è chiamato tempo di latenza, 
Esso dipende dal numero di segmenti da 
cui è composta la struttura e dal tempo 
necessario per eseguire ogni compito. 
Una struttura a catena con un elevato 
tempo di latenza è efficiente solo quan- 
do vi è un grande numero di calcoli iden- 
tici da eseguire, proprio come una cate- 
na di montaggio per automobili è effi- 
ciente solo se produce una grande quan- 
tità di vetture. 

L elaborazione di vettori è una applica- 
zione per la quale le strutture a ca- 
tena si rivelano particolarmente utili. 
Nella terminologia informatica un vetto- 
re è essenzialmente un insieme ordinato 
di numeri indipendenti. Questi insiemi 
sono denominati vettori perché in geo- 
metria numeri tra loro indipendenti pos- 
sono essere associati nella rappresenta- 



zione di coordinate: un insieme di tre 
numeri può definire una posizione o una 
direzione nello spazio tridimensionale, 
mentre un insieme di quattro numeri 
può individuare una posizione o una di- 
rezione nello spazio-tempo a quattro di- 
mensioni. Nel contesto informatico i 
vettori possono contenere migliaia di 
elementi e non devono essere necessa- 
riamente associati a una interpretazione 
geometrica. 

Accade spesso che operazioni simili 
tra loro debbano essere eseguite su cia- 
scun elemento di un vettore. Per esem- 
pio, nella moltiplicazione tra vettori il 
primo elemento di un vettore viene mol- 
tiplicato per il primo elemento di un al- 
tro, poi vengono moltiplicati i rispettivi 
secondi elementi e così vìa. Simili ope- 
razioni sono i candidati naturali per l'u- 
tilizzazione di strutture a catena: la pro- 
gettazione di hardware specifici per l'uso 
di strutture a catena in operazioni tra 
vettori è un momento fondamentale nel- 
lo studio di architetture avanzate per i 
calcolatori. In molti di questi sistemi 
gruppi di elementi di vettori vengono 
elaborati simultaneamente da distinte 
unità funzionali all'interno di una sola 
unità di elaborazione. Queste macchine 
non sono propriamente calcolatori dota- 
ti di una singola unità di elaborazione, 
ma rappresentano piuttosto un passo in- 
termedio tra le macchine seriali e i cal- 
colatori paralleli. 

Un'altra categoria di calcolatori vir- 
tualmente paralleli sono i VLIW (very 
long ìnstruction word), ovvero calcolato- 
ri che usano parole di istruzione molto 
lunghe. In queste macchine le unità di 
elaborazione hanno diverse copie di cia- 
scuna unità funzionale. Durante ogni ci- 
clo, nel momento in cui una unità di ela- 
borazione di tipo convenzionale legge- 
rebbe dalla memoria una singola istru- 
zione, le macchine vliw sono in grado 
di leggerne diverse simultaneamente. A 
questo fine le istruzioni sono raggruppa- 
te in una singola «parola» (word), che 
l'unità di elaborazione legge dalla me- 
moria. Le istruzioni vengono quindi ela- 
borate simultaneamente dalle distinte 
unità funzionali all'interno dell'unità di 
elaborazione, cosicché quest'ultima si 
comporta come un calcolatore parallelo. 

Nei calcolatori VLIW le operazioni de- 
vono essere ordinate con un'accuratezza 
particolare per evitare alcuni tipi di con- 
flitti, come quelli che possono sorgere 
quando, per esempio, una operazione 
necessita del risultato dì un'altra. Sono 
da poco disponibili sul mercato alcuni 
calcolatori VLIW in grado di gestire si- 
multaneamente 10 o più istruzioni e so- 
no state progettate macchine che saran- 
no in grado di eseguire simultaneamente 
centinaia di operazioni. L'architettura 
vliw è particolarmente adatta per ese- 
guire operazioni di carattere irregolare 
(operazioni che non si ripetono in modo 
identico), un'applicazione nella quale le 
architetture basate su strutture a catena 
e le architetture vettoriali, che richiedo- 



no un certo grado di regolarità, mostra- 
no scarsa efficienza. 

Pitie le soluzioni che abbiamo men- 
zionato in precedenza - memorie in- 
tercalate, strutture a catena e vettoriali, 
calcolatori vliw - sono utili per incre- 
mentare la velocità e l'efficienza di una 
singola unità di elaborazione. Tuttavia, 
vi sono applicazioni nelle quali l'uso di 
una singola unità di elaborazione, per 



quanto molto veloce, non è sufficiente. 
Per esempio, uno studio numerico 
realistico della cromodinamica quanti- 
stica (una teoria riguardante le particelle 
fondamentali) richiederebbe l'esecuzio- 
ne ripetuta di calcoli su circa 100 milioni 
di valori, che rappresentano l'intensità 
di diversi campi di forze all'interno della 
regione spazio-temporale a quattro di- 
mensioni nelle vicinanze di un protone. 
La velocità con cui i calcoli possono es- 



sere eseguiti dipende in parte dal ritmo 
con cui i segnali possono passare da una 
parte all'altra del calcolatore. La veloci- 
tà della luce nel vuoto, la più alta alla 
quale i segnali possano viaggiare, è di 
circa 30 centimetri al nanosecondo (un 
nanosecondo è un miliardesimo di se- 
condo). Perciò, anche se i componenti 
di una unità di elaborazione potessero 
subire cambiamenti di stato in un tempo 
nullo, una macchina, per quanto picco- 













3,65 x 10* x 
4,45 x 10° 























































































lo*"' = 10 7 























































































3,65 - 4,45 = 
16,24 























































































16.24 x 10 T = 
1,62 x 10* 
















C 














3,65 x 10* x 
4,45 x 10» 





















































































4,71 x 10,2' x 
5,20 x 10* 
















10'* 3 = 10' 























































8,39 « 10* x 
1.05 x IO 3 
















10?» - 10 7 
















3,65 - 4.45 = 
16,24 







































2,55 x 10* x 
6,11 x 10» 
















10" 3 = 10' 
















4.71 x 5.20 

24.49 
















16.24 ■ 10 7 = 
1,62 x 10» 













L'uso dì strutture a catena, una tecnica che accelera il funzionamento 
di una singola unità dì elaboratone, può essere paragonato a una catena 
di montaggio di automobili. Alcuni calcoli richiedono molti piccoli pas- 
si, ognuno eseguilo da un diverso componente dell'unità di elaborazio- 
ne. In un'unità di elaborazione convenzionale (al, mentre un compo- 
nente esegue il proprio compito, gli altri restano mattivi. In questo caso 
il compito è la moltiplicazione di due numeri: si tratta di esprìmere ogni 
numero come esponente e mantissa ( nella memoria i numeri sono codifi- 
cati in notazione scicntifìcal, sommare gli esponenti, moltiplicare te 



mantisse ed esprimere il prodotto in notazione scientifica. In una catena 
di montaggio (il nessuna stazione resta inattiva: quando un compito è 
stato e mi pittali i e l'automobile si è spostata lungo la catena, viene 
introdotto nella stazione l'esemplare successivo. Diverse operazioni 
vengono eseguite simultaneamente su automobili differenti. Un'unità 
di elaborazione che sfrutta le strutture a catena le) segue lo slesso 
principio: non appena un'operazione è stata svolta su una coppia di 
numeri, la stessa operazione viene compiuta sulla coppia seguente, 
senza attendere che la prima attraversi tutti gli stadi del calcolo. 



30 



31 



la, dotata di una singola unità di elabo- 
razione non potrebbe eseguire più di po- 
chi miliardi di operazioni al secondo, 
una velocità di elaborazione che è non 
sufficiente per risolvere un problema dì 
cromodinamica quantistica. Per queste 
applicazioni si rende necessario collega- 
re tra loro molte unità di elaborazione, 
in modo da formare un vero calcolatore 
parallelo. 

Nella progettazione di un calcolatore 
parallelo ci si trova di fronte a molte scel- 
te possibili . Per esempio , di quante unità 
di elaborazione è necessario disporre? 
Come andrebbero collegate'? Quale gra- 
do di complessità dovrebbe raggiungere 
ciascuna di esse? Per meglio compren- 
dere alcune delle scelte che si pongono 
di fronte al progettista di calcolatori pa- 
ralleli, potrebbe essere di aiuto tener 
conto di un'analogia. Supponiamo, an- 
cora una volta, di doverci occupare del- 
la costruzione di una casa, ma di avere 
questa volta stipulato un contratto con 
un'impresa edile. In questa analogia 
ogni operaio rappresenta una sìngola 
unità di elaborazione e la squadra di ope- 
rai rappresenta il calcolatore. Quali sono 
le caratteristiche di questo «calcolatore» 
e come si differenzia da altri sistemi mes- 
si a punto per organizzare un gran nu- 
mero di «unità di elaborazione»? 

Il sistema è senza dubbio parallelo, 
poiché molti operai intraprendono di- 
verse parti del lavoro nello stesso mo- 
mento. È anche un sistema eterogeneo: 
operai con diverse specializzazioni (mu- 
ratori, elettricisti e così via) hanno diffe- 
renti compiti da eseguire. Tuttavia, si 
possono immaginare altre situazioni nel- 
le quali la migliore strategia consistereb- 
be nell'impiegare molti operai con la 
stessa specializzazione, così come molti 
calcolatori paralleli avanzati sono com- 
posti da insiemi di unità di elaborazione 
tra loro identiche. 

Un'altra caratteristica di questo siste- 
ma è che le singole «unità di elaborazio- 
ne» sono relativamente complesse: o- 
gnuna è composta di diverse «unità fun- 
zionali» (mani, spalle, gambe e via di 
seguito) in grado di operare simultanea- 
mente. I! sistema è detto «a grana gros- 
sa» poiché si affida al fatto che ogni 
«operaio» compia una notevole quantità 
di lavoro. L'efficacia del sistema non si 
basa su una sofisticata rete di comunica- 
zioni tra le unità di elaborazione. 

Ciò non significa che la comunicazio- 
ne tra gli operai non sia importante. 1 
muratori che lavorano uno vicino all'al- 
tro devono avere un continuo scambio 
di informazioni per essere sicuri di co- 
struire una parete uniforme con giunzio- 
ni perfette tra i settori costruiti dai vari 
operai. In questo caso la rete di connes- 
sioni presenta una cosiddetta topologia 
di «trasmissione al più vicino» (nearest- 
•neighbor): l'informazione è trasmessa 
tra operai vicini. Un sistema siffatto po- 
trebbe comportare costi elevati se gli 
operai dovessero comunicare molti mes- 
saggi ad altri operai lontani (gli operai 



passerebbero più tempo a parlare a sca- 
pito del loro lavoro). Per questo motivo 
molte architetture avanzate si basano su 
reti di comunicazione che presentano to- 
pologie alternative. 

Un'altra importante considerazione 
riguarda le istruzioni date agli ope- 
rai. Nell'analogia precedente ogni ope- 
raio ha un compito leggermente diffe- 
rente da quello di tutti gli altri (il muro 
di una casa presenta caratteristiche non 
ripetitive come porte, finestre, decora- 
zioni) e quindi ogni operaio esegue un 
suo particolare insieme di istruzioni. Al 
contrario, in una situazione in cui gli 
operai svolgono compiti identici - per 
esempio in una fabbrica dì tessuti dove 
ogni operaio lavora a un telaio e tutti i 
telai producono lo stesso modello dì tes- 
suto - si potrebbero fornire simultanea- 
mente istruzioni identiche a tutti gli 
operai. 

Un ultimo aspetto dell'analogia che 
vogliamo sottolineare riguarda il modo 
in cui i vari compiti sono stati suddivisi 
tra gli operai che costruiscono il muro: il 
lavoro è stato scomposto in compiti più 
piccoli, simili fra loro, e ogni operaio, 
«risolve» una piccola parte del problema 
globale. Questo modo di procedere è 
chiamato scomposizione in domini ed è 
particolarmente adatto per affrontare 
problemi nei quali la maggiore difficoltà 
sia costituita dalla dimensione della base 
di dati. Nell'analogia, la posa di ogni 
mattone richiede pochissimo tempo, ma 
il problema globale ne richiede molto di 
più a causa del numero di mattoni da 
posare. A ogni operaio è pertanto affi- 
data la responsabilità dì pochi mattoni. 

Lavorando con i calcolatori, si incon- 
trano di frequente simili problemi (il mo- 
dello della cromodinamica quantistica è 
un buon esempio) e la scomposizione in 
domini è la via più naturale per cercare 
di risolverli. Per quanto riguarda la 
scomposizione in domini è importante 
assicurarsi che la rete che collega le unità 
di elaborazione abbia qualche rassomi- 
glianza con la topologia intrinseca del 
problema da risolvere. Nell'analogia la 
rete di «trasmissione al più vicino» è ef- 
fettivamente adeguata alla «geometria» 
di una casa. 

Alcuni compiti, tuttavia, non possono 
essere risolti mediante la scomposizione 
in domini e possono essere meglio af- 
frontati ricorrendo al cosiddetto metodo 
di «scomposizione funzionale». Ancora 
una volta l'impresa edile fornisce una 
buona analogia. Il personale dell'impre- 
sa comprende sia quadri direttivi e im- 
piegati contabili, sia operai e l'insieme 
degli operai comprende, oltre ai mura- 
tori, idraulici ed elettricisti. Il compito 
globale può essere suddiviso in sotto- 
compiti che richiedono l'abilità persona- 
le di ciascuno. Un calcolatore parallelo 
a scomposizione funzionale può a volte 
lavorare molto più velocemente di un 
calcolatore sequenziale, anche se l'entità 
di accelerazione del processo di elabora- 



zione dipende dal numero dei compiti 
differenti in cui è diviso il problema. 
Spesso la scomposizione in domini è as- 
sociata alla scomposizione funzionale: la 
costruzione della casa può essere ripar- 
tita tra muratori, idraulici e così via. 
mentre ìl sottocompito dell'edificazione 
del muro può essere diviso tra diversi 
muratori. 

Consideriamo adesso più in dettaglio 
alcune fra le questioni che si presen- 
tano ai progettisti di calcolatori paralleli 
e vediamo quali siano i tipi dì soluzione 
adottati. 

Avendo l'opportunità di includere in 
un sistema più dì un'unità dì elaborazio- 
ne, non vi è alcuna ragione di creare un 
sistema omogeneo scegliendo solo unità 
di elaborazione identiche tra loro. Per- 
ché non unire un appropriato insieme di 
unità costruite per fini specifici in modo 
da formare un sistema eterogeneo? Do- 
potutto, questa via viene perseguita in 
molte situazioni reali. Per esempio, una 
compagnia aerea che serva tanto piccole 
città quanto grandi centri metropolitani, 
probabilmente adotterà alcuni piccoli 
aerei a elica, un buon numero di aerei a 
reazione di media grandezza e pochi 
Jumbo jet. 

A tutt'oggi sono stati costruiti alcuni 
calcolatori paralleli eterogenei, mentre 
molti si trovano in fase di progetto. I 
calcolatori finora costruiti possiedono in 
generale solo due tipi di unità di elabo- 
razione: unità adibite a scopi generali e 
unità progettate per operazioni in virgo- 
la mobile. Sono stati progettati diversi 
altri sistemi che uniscono unità di elabo- 
razione specializzate con architetture 
particolarmente adatte per scopi come 
intelligenza artificiale, grafica, basi di 
dati e calcolo numerico, ma nessun gran- 
de sistema è stato a tutt'oggi introdotto 
sul mercato. Dal momento che i calco- 
latori paralleli omogenei hanno una dif- 
fusione così preponderante rispetto ad 
altri tipi di calcolatori, ci occuperemo da 
qui in avanti principalmente dì sistemi 
omogenei. 

Una volta scelto un insieme di unità di 
elaborazione, come può ogni singola 
unità essere istruita sui passi da eseguire 
durante un calcolo? Nella nostra analo- 
gia ogni operaio eseguiva un proprio in- 
sieme di istruzioni. Nella terminologia 
informatica un sistema del genere è det- 
to mimd (multiple instruction stream- 
Imultiple data stream che si può rendere 
con «istruzioni diverse su un insieme di 
dati diversi»). Con un sistema MIMD è 
possibile dividere un programma in parti 
separate, distribuire alle unità di elabo- 
razione ì compili e i relativi dati associati 
e lasciare che le unità di elaborazione 
agiscano quasi indipendentemente. In- 
vece, in un sistema SIMD {single instruc- 
tion stream! multiple data stream ovvero 
«singola istruzione su un insieme dì dati 
diversi»), un unico insieme di istruzioni 
è distribuito a tutte le unità di elabora- 
zione. Ogni unità, a ogni passo del cal- 



colo, esegue esattamente lo stesso co- 
mando di tutte le altre, o resta inattiva. 

Una buona analogia per i sistemi simd 
è data dal gioco della tombola. Nella 
tombola un giocatore chiama numeri in 
successione. Ogni numero è in effetti un 
comando: «Controlla sulla tua cartella il 
numero che ho appena chiamato. Se sul- 
la cartella il numero appare, coprilo; se 
non appare, non fare alcunché». Con 
questa singola istruzione ogni giocatore 
o non fa nulla o compie la stessa azione 
in concomitanza con altri giocatori. I nu- 
meri che appaiono su una cartella sono 
i dati che quel giocatore ha a disposizio- 
ne. In un certo senso, la cartella può es- 
sere considerata come un'unità locale di 
memoria, disponibile solo per una sin- 
gola unità di elaborazione. Ammetten- 
do che il giocatore che chiama i numeri 
abbia una voce abbastanza potente, un 
numero teoricamente illimitato di perso- 
ne può giocare allo stesso tempo. Ogni 
azione ha luogo dentro o in prossimità 
delle unità di memoria, ognuna delle 
quali è associata a una singola unità di 
elaborazione (nell'analogia, il singolo 
giocatore). 

Una tipica applicazione per le macchi- 
ne simd è il problema di cromodinamica 
quantistica menzionato poc'anzi. Per ri- 
solvere un problema del genere a ogni 
unità di elaborazione potrebbe essere at- 
tribuito il calcolo dell'intensità dei vari 
campi di forze in una particolare regione 
dello spazio. Tutte le unità dovrebbero 
quindi eseguire essenzialmente la stessa 
operazione sul proprio insieme di dati. 
Altre tipiche applicazioni per una strut- 
tura simd riguardano l'elaborazione di 
immagini, l'analisi della dinamica dì un 
fluido e le operazioni di ricerca in grandi 
basi di dati. 

Molti sistemi costruiti sfruttando la 
struttura SIMD hanno dimostrato di esse- 
re molto efficienti per numerosi compi- 
ti numerici e simbolici. Alcuni esempi 
possono essere il Goodyear Massively 
Parallel Processor, che contiene 16 384 
singole unità di elaborazione, e la Con- 
nection Machine, che ne comprende 
65 536. In questi calcolatori ogni unità di 
elaborazione è estremamente semplice, 
tuttavia queste macchine sono in grado 
di eseguire calcoli di carattere generale 
oltre ai compiti più specìfici di una strut- 
tura SIMD. 

pome dovrebbero essere realizzate le 
^-' connessioni tra le unità di elabora- 
zione di un calcolatore parallelo e le uni- 
tà di memoria e tra le stesse varie unità 
di elaborazione? Il sistema di connessio- 
ni attraverso il quale le unità di elabora- 
zione possono scambiare le informazio- 
ni , reciprocamente e con le unità di me- 
moria, è una delle più importanti carat- 
teristiche di ogni sistema parallelo ed è 
anche l'ambito in cui emergono mag- 
giormente le differenze tra i vari sistemi 
paralleli. Secondo il metodo chiamato 
«a memoria condivisa», tutte le unità di 
elaborazione sono collegate a un comu- 




PflOBLEMA 
DA RISOLVERE 



La costruzione di una casa preseli la una buona analogia con alcuni aspetti dell'elaborazione 
parallela. Ogni operaio può esser* consideralo una singola unità di elaborazione, mentre l'intera 
squadra di operai corrisponde a un calcolatore parallelo. Come nella costruzione di una casa è 
possibile impiegare diverse categorie di operai - muratori, idraulici, carpentieri - cosi si può 
progettare un calcolatore parallelo che includa diversi tipi dì unità di elaborazione, ognuna delle 
quali è specializzala per un determinato compito (a). Inoltre, come i muratori devono comuni- 
care l'uno con l'altro per allineare perfettamente le varie parti della costruzione, cosi le unità di 
elaborazione di un calcolatore parallelo devono potersi scambiare informazioni se vogliono 
risolvere insieme un singolo complesso prohlema (b). L'analogia può essere estesa al modo in 
cui il lavoro viene ripartilo. Nella costruzione della casa a ogni muratore può essere assegnato 
un particolare settore del muro; ciascuno esegue la stessa operazione in luoghi differenti. Ana- 
logamente un problema di calcolo (e) può spesso essere diviso in modo tale che ciascuna unità 
di elaborazione esegua la stessa operazione, ma su diversi insiemi di dati (che potreb- 
bero rappresentare, per esempio, determinate condizioni fisiche in una particolare regione 
dello spazio). Una ripartizione di questo tipo viene chiamata scomposizione in domini. 



32 



33 



ne sistema di memoria attraverso una 
connessione diretta, una rete di connes- 
sioni oppure un bus di memoria. Un bus 
è in pratica un canale di collegamento 
lungo i! quale diverse unità di elabora- 
zione trasmettono le richieste per la let- 
tura di informazioni e attraverso il quale 
l'unità di memoria, a sua volta, invia i 
dati richiesti alle unità di elaborazione. 



In un sistema a memoria condivisa 
ogni locazione di memoria è direttamen- 
te accessibile da parte di ogni unità di 
elaborazione: se una certa unità necessi- 
ta di alcuni dati per eseguire il proprio 
compito, li legge semplicemente dalla 
memoria. Dal momento che altre unità 
di elaborazione possono continuamente 
modificare i dati immagazzinati in me- 



UNITÀ DI ELABORAZIONE 




BANCHI DI MEMORIA 







BUS 



i 




UNITÀ DI ELABORAZIONE 



C 

UNITA DI 
ELABORAZIONE 



BANCHI DI MEMORIA 




Nelle architetture a memoria condivisa tutte le unità di elaborazione di un sistema parallelo 
possono accedere alle unità di memoria globali (o comuni). Nello schema più semplice (a) ogni 
unità di elaborazione è direttamente collegata a ogni banco di memoria. Uno svantaggio di questo 
sistema è che ogni unità di elaborazione e ogni banco di memoria devono possedere un gran 
numero di collegamenti. Una alternativa (ftl è il bus: un canale di comunicazione comune lungo 
il quale le unità di elaborazione inviano richieste ai banchi di memoria, i quali rinviano i dati. 
Un bus di questo tipo può diventare affollato (e quindi lento) quando vi deve transitare un gran 
numero di messaggi. Un'ulteriore alternativa è la «rete omega* {e) nella quale te unità di 
elaborazione sono connesse ai banchi di me morii Inulte inni serie ili commutatori, ognuno dei 
quali ha due linee in ingresso e due in uscita. In una rete omega ogni unità di elaborazione è in 
effetti in collegamento diretto con ogni hanco di memoria, ma non è necessario che vi siano tante 
linee dì comunicazione come nello schema della connessione diretta. Il vantaggio è più evidente 
al crescere del numero di unità di elaborazione e di banchi di memoria. Uno svantaggio e 
che ogni messaggio deve passare attraverso molti commutatori prima di giungere a destinazione. 



moria, bisogna porre attenzione a che 
nessuna unità legga da una locazione di 
memoria prima che l'appropriato valore 
vi sia stato immagazzinato. Gran parte 
della coordinazione necessaria è affidata 
al software, ma il ricorso a interventi sul- 
l'hardware può risultare utile. In alcuni 
sistemi, per esempio, particolari aree di 
memoria sono riservate per elementi che 
tengono conto di quaii locazioni siano 
già occupate, in modo da prevenire ten- 
tativi prematuri di accesso a dati che solo 
in un momento successivo saranno di- 
sponibili in queste locazioni. 

Una limitazione propria dei sistemi a 
memoria condivisa è legata al costo e alla 
difficoltà dì costruire una memoria in 
grado di servire simultaneamente una 
grande quantità di unità di elaborazione. 
Se in un calcolatore ci fossero 1000 unità 
di elaborazione e ciascuna di esse dispo- 
nesse di una connessione diretta con la 
memoria e se la memoria fosse divisa in 
1000 banchi separati per ridurre il rischio 
di strozzature, sarebbe necessario predi- 
sporre un milione di connessioni. D'altra 
parte, se tutte le unità di elaborazione 
avessero accesso alla memoria attraver- 
so un bus comune, quest'ultimo dovreb- 
be funzionare a una velocità tale da po- 
ter esaudire la richiesta simultanea di da- 
ti in memoria da pane di tutte le unità 
di elaborazione. Da questo punto di vi- 
sta, la progettazione di una memoria co- 
mune presenta problemi simili al con- 
trollo del traffico su una autostrada con 
accessi limitati. Assegnato un limite di 
velocità e un certo numero di corsie, 
ogni autostrada ha una certa capacità di 
traffico, espressa in autoveicoli al minu- 
to. Se tenta di accedervi un numero di 
veicoli che superi tale capacità, il traffico 
ne risulta rallentato e si congestiona. Per 
ovviare a ciò, si potrebbero costruire au- 
tostrade con più corsie (o diverse auto- 
strade parallele), ma esistono limiti di 
ordine pratico che si oppongono a que- 
sto tipo di soluzione. 

In alternativa, si potrebbe costruire 
una rete di comunicazione simile alla re- 
te telefonica mondiale. Nel mondo ci so- 
no centinaia di milioni di telefoni tutta- 
via, con poche eccezioni, ogni telefono 
può essere collegato con qualunque al- 
tro. Questo non si ottiene installando ca- 
vi di collegamento tra ogni possibile cop- 
pia di telefoni, ma piuttosto collegando 
gruppi di telefoni a differenti sistemi di 
commutazione. Tali sistemi sono a loro 
volta ordinati secondo uno schema ge- 
rarchico, così che ogni stazione di com- 
mutazione è responsabile di un nume- 
ro non troppo elevato di connessioni. 
Quando si richiede un collegamento 
(componendo il numero telefonico) la 
richiesta si propaga attraverso diverse 
stazioni di commutazione fino a quando 
l'apparecchio desiderato è raggiunto. 

Uno svantaggio delle connessioni in 
rete è che esse incrementano il tempo di 
latenza per accedere alla memoria, in 
quanto ogni richiesta di informazione 
deve compiere numerosi passi attraverso 



la rete prima di raggiungere l'unità di 
memoria. Inoltre, proprio come avviene 
nel caso della rete telefonica, possono 
verificarsi periodi critici qualora la rete 
venga saturata di richieste di connessio- 
ni, causando così tempi di ritardo molto 
prolungati. Sono stati progettati diversi 
tipi di reti in grado di minimizzare simi- 
li «ingorghi», pur mantenendo un costo 
di produzione ragionevolmente conte- 
nuto e una elevata velocità di accesso 
alla memoria. 

Se è difficile o dispendioso costruire 
macchine a memoria condivisa, per- 
ché non incorporare in ogni unità di ela- 
borazione una certa quantità di memoria 
e co Ile gare fra loro le coppie unità di 
elaborazione -me mori a (che in questo 
contesto vengono generalmente chiama- 
te nodi)? Sistemi costruiti secondo que- 
sta tecnica possiedono una memoria lo- 
cale (o memoria distribuita). Nelle ar- 
chitetture a memoria locale i dati devono 
essere smistati ai nodi appropriati all'i- 
nizio dell'elaborazione. Nel corso dell'e- 
secuzione , normalmente, i nodi posso- 
no avere la necessità dì reperire dati dal- 
le memorie di altri nodi. Viene allora 
inviato un messaggio al nodo appropria- 
to con la richiesta d'i trasferire l'informa- 
zione in questione con un messaggio di 
ritorno. Se i due nodi interessati non so- 
no direttamente collegati, nel cammino 
tra uno e l'altro il messaggio deve neces- 
sariamente attraversare altri nodi. 

Sono stati progettati molti schemi dì 
connessione per i nodi di un sistema a 
memoria distribuita. Il progettista di un 
sistema di questo tipo si propone di sod- 
disfare diverse condizioni: la comunica- 
zione tra nodi dovrebbe essere molto ve- 
loce; nessun nodo dovrebbe avere un 
numero troppo elevato di connessioni e 
infine la topologia delle connessioni do- 
vrebbe in qualche modo accordarsi con 
la «geometria» naturale del problema da 
risolvere. L'analisi della cromodinamica 
quantistica rappresenta un buon esem- 
pio di quest'ultima condizione. Se ogni 
nodo calcola i valori relativi a vari campi 
di forze in un certo volume dello spazio, 
dovrebbe essere collegato ai nodi adibiti 
al calcolo dei corrispondenti valori rela- 
tivi ai volumi adiacenti. 

Uno dei più semplici schemi di con- 
nessione è quello ad anello, nel quale 
ogni nodo è collegato con altri due e la 
linea di connessione forma una circonfe- 
renza. Un altro schema relativamente 
semplice è quello a maglia, nel quale 
ogni nodo è collegato con i quattro nodi 
più vicini. Anche se non vi è alcun limite 
al numero di nodi che possono essere 
collegati in un anello o in una maglia, il 
numero di collegamenti che ogni unità 
di elaborazione è in grado di gestire è 
basso (rispettivamente due e quattro). 
L'unità di elaborazione all'interno di cia- 
scun nodo può avere accesso alla propria 
memoria a velocità opportuna e i cana- 
li di comunicazione devono controllare 
solamente il traffico tra pochi nodi. 




I il li— HI 

it IN Il 1> 

it II Il li 

O « (I Il 

- * 




ANELLO 



MAGLIA 



CONNESSIONE 
TOTALE 




ALBERO 



IPERCUBO 



Nelle architetture a memoria distribuita i collegamenti tra le unità di elaborazione sono tali che 
ognuna di esse ha il controllo esclusivo di una certa porzione di memoria. Tra gli schemi più 
semplici vi sono quelli ad anello iaì e a maglia <fc). Un'architettura più complessa è l'albero 
binario (ci. L'albero binario è particolarmente utile per ì cosiddetti sistemi esperti che si basano 
spesso su processi decisionali ad albero. È anche possibile collegare ogni unità di elaborazione 
con tutte le rimanenti irf), ma questo sistema richiede un numero estremamente elevato di 
collegamenti. Un'architettura innovativa, che troverà presumibilmente largo impiego, è la to- 
pologia a i pere ubo [et nella quale le unità di elaborazione sono collegale tra toro come se si 
trovassero ai vertici di un cubo mullidimcnsionale, (Nell'esempio illustrato le unità sono i vertici 
di un ipercubo quadridimensionale. I [n questo sistema ogni unità di elaborazione è in grado dì 
trasferire messaggi a ogni altra unità attraverso un cammino relativamente breve, pur non 
essendo necessario che le unità di elaborazione presentino un elevato numero di collegamenti. 



Queste semplici topologie presentano 
però alcuni inconvenienti. Il numero di 
nodi interessato nella trasmissione di un 
messaggio da un nodo all'altro può esse- 
re elevato (nel caso di un anello, anche 
la metà di tutti quelli presentì) causando 
lunghi tempi di ritardo. Se un nodo non 
svolge altri compiti mentre resta in atte- 
sa di disporre di un dato, le sue risorse 
rimangono inutilizzate ; se deve richiede- 
re frequentemente dati da altri nodi, 
buona parte della potenza di calcolo del- 
la macchina risulta sprecata. 

Un modo per evitare questo problema 
è di ricorrere a una topologia leggermen- 
te più complessa, conosciuta come sche- 
ma del cubo a n dimensioni («-cubo, o 
ipercubo). In questo caso, i nodi sono 
collegati come se rappresentassero i ver- 
tici dì un cubo multi dimensionale. Per 
esempio, in un cubo a tre dimensioni si 
potrebbero collegare otto nodi, mentre 
seguendo la disposizione topologica ca- 
ratteristica di un cubo a quattro dimen- 
sioni si potrebbero collegare 16 nodi. (I 
cubi a una e a due dimensioni corrispon- 
dono rispettivamente a una linea e a un 



quadrato.) In generale, un cubo ap di- 
mensioni può collegare 2 P nodi. Il cam- 
mino più lungo che un messaggio può 
dover percorrere è pari al logaritmo in 
base 2 di p. Sono attualmente in com- 
mercio sistemi che collegano 2 12 nodi in 
uno schema che ha la topologia di un 
ipercubo. 

Considerate le differenze tra le tipo- 
logie disponibili per i sisiemi a memoria 
condivisa e per i sistemi a memoria loca- 
le, nonché i diversi vantaggi offerti dalle 
due impostazioni, appare naturale cer- 
care di combinarle. Si potrebbe per 
esempio immaginare un sistema ibrido 
in cui ogni nodo consista di un numero 
non elevato di unità dì elaborazione che 
condividano una memoria. I nodi, che in 
questo caso dovrebbero essere chiamati 
aggregati (clusier), potrebbero essere 
collegati secondo uno schema a maglia 
o, in alternativa, secondo una struttura 
a ipercubo. Lo schema opposto, nel qua- 
le un certo numero di nodi, ciascuno do- 
tato di una propria memoria locale, con- 
divìde anche una memoria comune è già 
in uso in alcuni sistemi. 



34 



35 



Già che si stanno facendo esperimenti 
su] numero di unità di elaborazione 
in un calcolatore e sui modi in cui le unità 
sono tra loro collegate, perché non con- 
siderare anche il modo in cui viene con- 
trollato il funzionamento della macchi- 
na? Quasi tutti i calcolatori finora co- 
struiti, compresi i calcolatori paralleli, 
sono controllati da programmi. Un pro- 
grammatore scrive un insieme dì istru- 
zioni, che viene successivamente tradot- 
to in linguaggio macchina, ossia nel co- 
dice che descrive gli effettivi passi dell'e- 
laborazione che il calcolatore deve ese- 
guire. Questo programma stabilisce in 
maniera univoca e precisa il flusso di la- 
voro attraverso il calcolatore. 

Le architetture parallele rendono pos- 
sibile immaginare modi molto diversi tra 
loro per controllare il funzionamento del 
calcolatore, molti dei quali sono ancora 
in fase sperimentale. Uno dì questi è det- 
to «a flusso di dati» (dataflow). In una 
struttura a flusso di dati (ovvero control- 
lata dal flusso dei dati), un problema è 
rappresentato come un grafo orientato: 
un insieme di punti, chiamati nodi, col- 
legati da archi. I nodi rappresentano le 
operazioni matematiche o logiche e gli 
archi rappresentano il flusso di dati da 
un'operazione all'altra. In una macchina 
reale i nodi potrebbero essere rappre- 
sentati da coppie unità di e 1 adorazione - 
-memoria, mentre i collegamenti fisici 
tra le unità di elaborazione corrisponde- 
rebbero agli archi. 

In una struttura a flusso di dati le ope- 
razioni non vengono eseguite dai nodi 
secondo una sequenza predeterminata 
definita dal programma. Al contrario, 
un nodo esegue la propria operazione 
solo nel momento in cui possiede tutti i 
dati necessari e quindi trasmette il risul- 
tato al nodo successivo. Si potrebbe fare 
una grossolana analogia con una corsa a 
staffetta, in cui il secondo atleta parte 
non appena ha ricevuto il testimone dal- 
l'atleta che ha corso il primo tratto della 
gara. In una struttura a flusso di dati, 
tuttavia, un'unità di elaborazione po- 
trebbe attendere i risultati da varie altre 
unità e non necessariamente da una sola . 

Si potrebbe immaginare un sistema a 
flusso di dati nel quale un numero molto 
elevato di nodi esegua istruzioni che non 
hanno alcuna relazione con l'operato 
della maggior parte degli altri nodi. Dato 
che ogni nodo esegue il compito as- 
segnatogli solo quando possiede tutti i 
dati necessari, non vi è pericolo di ese- 
guire operazioni prematuramente, per 
esempio leggendo un dato da una loca- 
zione di memoria prima che l'ultimo va- 
lore vi sia stato registrato. Analogamen- 
te, non vi sono rischi di interferenze con 
altre unità di elaborazione, come quelle 
causate dal tentativo di molte unità di 
leggere simultaneamente una stessa lo- 
cazione di memoria. E neppure potreb- 
be accadere che due messaggi tentino di 
usare simultaneamente il medesimo ca- 
nale di comunicazione. Il sistema a flus- 
so di dati evita così i più comuni casi di 



strozzatura delle architetture parallele. 

È anche possibile l'impostazione con- 
traria nota come «architettura pilotata 
dalla domanda». I sistemi pilotati dalla 
domanda sono simili a quelli a flusso di 
dati, in quanto anch'essi possono essere 
rappresentati come un insieme di nodi, 
in cui vengono eseguite !e operazioni, e 
di archi, lungo i quali si spostano ì dati. 
La differenza risiede nel fatto che in un 
nodo l'operazione viene eseguita solo 
quando un altro nodo ne richiede il ri- 
sultato. Le espressioni sono calcolate so- 
lamente quando è richiesto il risultato, 
mentre nelle architetture a flusso di dati 
ogni operazione è eseguita non appena 
possibile, anche se in seguito non doves- 
se risultare necessaria. 

Le architetture pilotate dalla doman- 
da hanno un tempo di ritardo intrinseco: 
il tempo necessario perché un messaggio 
passi da un nodo a uno gerarchicamente 
«più alto» per richiedere che quest'ulti- 
mo esegua la sua operazione, I! vantag- 
gio offerto dalle architetture a flusso di 
dati e da quelle pilotate dalla domanda 
consìste nella possibilità di programmar- 
le in modo affidabile con facilità molto 
maggiore rispetto alle comuni macchine 
parallele. Un utente dovrebbe semplice- 
mente specificare le operazioni da ese- 
guire nei vari nodi e il passaggio di dati 
tra i nodi, senza preoccuparsi dell'esat- 
to meccanismo o della te m pori zz azione 
dell'algoritmo che verrà eseguito. 

Al giorno d'oggi gli esperti di calcola- 
** tori possono usufruire di una so- 
stanziale, ma limitata esperienza con le 
architetture avanzate. Alcune promet- 
tenti architetture parallele, come le mac- 
chine SIMD, la Connection Machine, 
l'Hypercube del California Institute of 
Technology e varie macchine a memoria 
condivisa, sono state studiate a fondo e 
considerate utili per un vasto campo di 
applicazioni. D'altra parte, gli hardware 
e i software paralleli disponibili sul mer- 
cato sono alquanto rudimentali. I con- 
fronti e le valutazioni comparative delle 
prestazioni delle diverse macchine sono 
ancora limitati. Pertanto, anche se sia- 
mo convinti che i calcolatori paralleli 
avranno in futuro un ruolo estremamen- 
te importante e permetteranno di ese- 
guire calcoli molto piùcomplessi rispetto 
a quelli attualmente possibili con le mac- 
chine seriali, non siamo in grado di pre- 
vedere quali specifiche architetture ver- 
ranno sviluppate e neppure quali saran- 
no le loro prestazioni effettive. 

L'elaborazione parallela ha raggiunto 
livelli cosi avanzati soprattutto perché gli 
stanziamenti lungimiranti da parte del 
Governo e dell'industria statunitensi a 
favore di molti progetti universitari han- 
no condotto a un numero molto elevato 
di iniziative commerciali con una grande 
varietà di architetture. Crediamo che nel 
prossimo futuro si avranno migliora- 
menti nel campo dell'hardware ; non sia- 
mo invece convinti che altrettanto avver- 
rà per quanto riguarda il software. In 



questo settore fondamentale, ma meno 
stimolante, non riusciamo a scorgere gli 
stessi segni di vitalità. Sono stati neces- 
sari più di 30 anni per arrivare a stabilire 
le basi attuali del software seriale. Si pos- 
sono anche trovare tecniche ingegnose 
per rendere utilizzabile sulle nuove mac- 
chine parte di questo software, ma ogni 
ulteriore progresso richiederà un note- 
vole sforzo per ristrutturare e rielabora- 
re le applicazioni di base nei settori com- 
merciali e di ricerca. 

Una tappa molto importante sarà la 
costituzione di alcuni standard. Linguag- 
gi come il FORTRAN, il COBOL e il LISP 
hanno fornito alle macchine seriali gli 
elementi strutturali di base per le appli- 
cazioni scientifiche, la gestione di impre- 
se e l'intelligenza artificiale. Certamente 
si tratta di linguaggi imperfetti, ma che 
si sono nondimeno rivelali in grado di 
consentire lo sviluppo di software seriali 
di base in grado di evolversi al passo con 
gli hardware. Niente di simile è ancora 
avvenuto per quanto riguarda la possi bi- 
lità di un analogo standard di software 
per i calcolatori paralleli. 

TI futuro sarà senza dubbio influenzato 
A dalle nuove tecnologie: i progressi nel 
settore dei semiconduttori e, forse, in 
quello dei nuovi superconduttori «ad at- 
ta temperatura» porteranno sicuramen- 
te a nuovi traguardi nella progettazione 
degli hardware. Verranno certamente 
realizzate nuove macchine ibride in cui 
connessioni ottiche collegheranno unità 
di elaborazione digitali a elevata velo- 
cità. "Progressi di questo genere conti- 
nueranno a essere fondati sui modelli ba- 
silari di elaborazione che abbiamo qui 
descritto. 

Più radicali sono le prospettive aperte 
dai calcolatori puramente ottici i quali 
consentiranno veloci calcoli analogici di 
svariati algoritmi che oggi possono esse- 
re attuati su calcolatori digitali solo in 
maniera approssimativa e lenta. Non è 
ancora dato sapere se tali calcolatori ot- 
tici saranno necessariamente limitati a 
pochi settori specializzati o se potran- 
no essere sviluppati in macchine di uso 
generale. 

Dobbiamo infine accennare anche ai 
recenti studi volti a sviluppare i modelli 
«a rete neuronica». Essi appaiono intui- 
tivamente molto interessanti perché for- 
niscono un modello di elaborazione pa- 
ragonabile a quello esistente nel cervello 
umano. Le macchine a rete neuronica 
sono potenzialmente molto superiori ai 
calcolatori convenzionali in settori quali 
il riconoscimento di configurazioni, seb- 
bene siano molto meno efficaci in com- 
piti ripetitivi come le operazioni aritme- 
tiche in virgola mobile. Alcuni ricerca- 
tori sono già riusciti a costruire sempli- 
ci hardware a rete neuronica e ci aspet- 
tiamo che questo nuovo modello di ela- 
borazione possa andare incontro a una 
rapida evoluzione, sia perquanto riguar- 
da ('hardware, sia per quanto riguarda 
gli algoritmi. 



36 



Chip per l'elaborazione avanzata 

// numero di transistori contenuti in un chip è andato sempre crescendo 
dal 1959 a oggi ed è prevedibile che y grazie a nuovi sviluppi tecnologici, 
fra qualche anno saranno disponibili chip con un miliardo di componenti 



TI silicio è inoltre un materiale semtcon- 
-^ d ultore abbondante, da cui si possono 
ottenere cristalli pressoché perfetti a un 
costo relativamente basso. Per di più, il 
suo ossido nativo, il biossido di silicio 
(SiOj). è un eccellente isolame, con ca- 
ratteristiche interessanti per la costru- 
zione di circuiti integrati. Nessun altro 
materiale possiede una tale combinazio- 
ne di caratteristiche favorevoli, il che 
aiuta a spiegare la preponderanza del- 
l'impiego del silicio nella fabbricazione 



dei circuiti integrati. Tuttavia, negli ulti- 
mi anni, alcuni limiti del silicio hanno 
elevato a una posizione dì grande impor- 
tanza un altro semiconduttore: l'arseniu- 
ro di gallio (GaAs). 

La ragione principale che spinge i pro- 
gettisti di chip a considerare l'arseniuro 
di gallio è la velocità: quando viene ap- 
plicato un campo elettrico di bassa inten- 
sità, gli elettroni di conduzione dell'ar- 
seniuro di gallio si muovono sei volte più 
velocemente di quelli del silicio. Tutta- 



via questo argomento potrebbe enfatiz- 
zare eccessivamente la superiorità del- 
l'arseniuro di gallio. Un confronto più 
accurato può essere condotto conside- 
rando un altro limite dei materiali, ov- 
vero il tempo necessario perché un por- 
tatore di carica, sotto l'influenza di un 
campo elettrico prossimo al valore di 
rottura Zcner, subisca una caduta di po- 
tenziale elettrico pari, per esempio, a un 
volt. (Il valore di rottura Zener di un 
campo elettrico è quello che strappa tan- 



di James D. Meindl 



Forse l'evento più significativo degli 
ultimi 50 anni è stato l'affermarsi 
di una società il cui prodotto 
principale è l'informazione. La forza 
trainante di questa trasformazione è lo 
sviluppo delle tecnologie elettroniche, in 
particolare dei circuiti integrati realizzati 
su un singolo chip di silicio. Dal 1959. 
anno in cui sono stati realizzati i primi 
circuiti integrati, si è passati da un solo 
transistore per chip a diversi milioni; co- 
me conseguenza, le prestazioni dei cir- 
cuiti integrati sono migliorate di un fat- 
tore superiore a 10 000. Mentre il chip 
veniva continuamente migliorato nelle 
prestazioni e nella complessità, il suo co- 
sto è rimasto virtualmente immutato. 

Nel considerare questo straordinario 
progresso tecnologico sorge spontaneo 
chiedersi per quanto tempo potrà conti- 
nuare. Un modo per affrontare la que- 
stione è domandarsi quando sarà dispo- 
nibile sul mercato un chip con un miliar- 
do di transistori, corrispondente allo sta- 
dio iniziale dell 'integrazione su gigascala 
(est). Per determinarlo è necessario esa- 
minare i fattori che limitano lo sviluppo 
della Gsi, Essi formano una gerarchia a 
cinque livelli, corrispondenti ai limiti 
fondamentali, dei materiali, dei disposi- 
tivi, dei circuiti e dei sistemi , Ogni livello 
della gerarchia può essere considerato 
da tre differenti punti di vista: teoria, 
pratica e analogia storica. 

I limiti teorici si basano su principi 
scientifici universalmente accettati: in 
effetti essi costituiscono i limiti di pro- 
getto della gsi. I limiti pratici, d'altra 
parte, non dipendono da principi scien- 
tifici, ma dai processi e dai macchinari di 
fabbricazione e stabiliscono ciò che è 
possibile fare in un particolare momento 
utilizzando la tecnologia disponibile sul 
mercato. L'analogia storica può aiutare 
a prevedere quello che sarà il futu- 
ro a lungo termine della rivoluzione 
informatica mediante un confronto con 
la Rivoluzione industriale ormai com- 
piuta. Nell'insieme, questi punti di vista 
permettono di prevedere quando la est 



potrà essere una realtà. Dopo aver rispo- 
sto a questa domanda, si possono fare 
estrapolazioni che superino i limiti del- 
le proiezioni attuali, prendendo in con- 
siderazione dispositivi, ora in fase di 
sperimentazione, che potrebbero avvia- 
re la fase successiva della rivoluzione 
informatica. 

In questo articolo esaminerò dapprima 
il punto di vista teorico, quindi quello 
pratico e infine il contributo analogico 
della storia. Dal punto di vista teorico, 
i limiti fondamentali sono leggi fisiche 
che non possono essere cambiate. Tali 
limiti sono per definizione indipendenti 
dal materiale usato per costruire un di- 
spositivo, dal progetto del dispositivo 
stesso, dal circuito in cui viene usato e 
dal sistema in cui il circuito sì trova. I 
limiti fondamentali formano il primo (e 
più generale) livello della gerarchia cita- 
ta: sono perciò lìmiti estremi, oltre i qua- 
li è impossibile operare. 

I limiti fondamentali dipendono da di- 
verse aree della fisica. Per esempio, la 
termodinamica dimostra che vi sono 
fluttuazioni statistiche casuali nei livelli 
energetici degli atomi e degli elettroni 
nel semiconduttore cristallino di cui è 
fatto un transistore. Vi è una stretta cor- 
relazione fra i livelli energetici degli elet- 
troni e il segnale in corso di elaborazione 
da parte di un transistore. Se il segnale 
non è notevolemente più forte delle flut- 
tuazioni casuali, queste ultime verranno 
confuse con il segnale stesso; perciò le 
fluttuazioni impongono un'energia mi- 
nima dì commutazione del transistore. 
Poiché esse variano con la temperatura, 
l'energia mìnima richiesta per la commu- 
tazione cresce all'aumentare delia tem- 
peratura. Altri limiti fondamentali ven- 
gono imposti dalla meccanica quantisti- 
ca e dalla teoria elettromagnetica, ossia 
dalla velocità della luce. 

I limiti dei materiali dipendono dalla 
composizione e dalla struttura chimica 
di una sostanza, ma non dalla geometria 
del dispositivo. Nel caso dei circuiti mi- 



eroe lett ronici ì materiali più interessanti 
sono i semiconduttori. Gli atomi che co- 
stituiscono il reticolo cristallino di un se- 
miconduttore sono tenuti uniti dagli 
elettroni di valenza: un atomo di silicio 
ne possiede quattro. In condizioni nor- 
mali gli elettroni di valenza sono stretta- 
mente legati agli atomi del reticolo. 

La situazione può essere modificata 
«drogando» il silicio, ossia introducendo 
nel reticolo atomi di impurezze che ab- 
biano un numero superiore o inferiore 
di elettroni di valenza rispetto al silicio. 
L'arsenico, un agente drogante molto 
usato, ha un elettrone di valenza in più 
del silicio. L'elettrone eccedente è nor- 
malmente libero di muoversi attraverso 
il reticolo. Se si applica un campo elet- 
trico al materiale, gli elettroni liberi, che 
hanno una carica negativa, trasportano 
la corrente elettrica. Agenti droganti co- 
me il boro, invece, hanno un elettrone 
di valenza in meno rispetto al silicio. La 
«buca» risultante da tale mancanza si 
comporta come un portatore di corrente 
avente carica positiva. Scegliendo in mo- 
do opportuno l'agente drogante e la sua 
concentrazione, le proprietà elettriche 
di un semiconduttore possono essere 
adeguatamente controllate. 

Molte caratteristiche del silicio lo ren- 
dono particolarmente adatto all'impiego 
nei circuiti integrati. Una dì tali caratte- 
ristiche è la larghezza della banda proi- 
bita: la differenza fra l'energia degli elet- 
troni di valenza e l'energìa degli elettroni 
di conduzione. Se la banda proibita è 
troppo stretta, incrementi relativamente 
piccoli dì temperatura possono portare 
molti elettroni di valenza nella banda di 
conduzione, interferendo con il control- 
lo precìso delle proprietà elettriche de- 
siderate per il dispositivo. I) silìcio, tut- 
tavia, ha una banda proibita di 1,12 elet- 
tronvolt, sufficientemente larga da per- 
mettere al materiale di conservare eccel- 
lenti caratteristiche di semiconduzìone 
in un ampio intervallo di temperature 
intorno a 300 kelvin (pari a circa 27 gradi 
Celsius, ossia la temperatura ambiente). 




In wafer di silicio contenente 470 chip è mostrato in grandezza naturale 
durante gli ultimi stadi di lavorazione. Si tratta di una fetta di un 
«lingotto» di silicio sul quale i chip vengono incisi lutti insieme. I ret- 
tangoli vicini al centro sono circuiti di teriOc* pct il CostroUe tW ■!»- 
cesso produttivo, Dopo aver effettuato una prova allo scopo di localizza- 



re i chip direttosi, si procede alla loro separazione con una sega con den- 
ti di diamante e quelli funzionanti sono incapsulati. I chip in figura sono 
del tipo chiamato pace 1750 A, costruito dalla Performance Semicon- 
ductor Corporation. Ciascuno di essi è l'unità centrale di elaborazione 
di un minicalcolatore usalo in aeroel et Ironica militare e in altri sistemi. 



38 



39 




ti elettroni di valenza dal reticolo da pro- 
vocare una reazione a catena di autoio- 
nizzazione.) Sotto questo aspetto l'arse- 
niuro di gallio è circa 2,5 volte più veloce 
del silicio. 

Se si considerano vari limiti dei mate- 
riali, quindi, l'arseniuro di gallio è più 
vantaggioso del silicio per la velocità. 
Tuttavia, a mano a manoche i transistori 
si fanno più piccoli, il vantaggio può es- 
sere annullato da altre caratteristiche del 
materiale. Un transistore può essere fat- 
to commutare più velocemente fornen- 
dogli più energia, ma in tal modo sì fa- 
vorisce l'accumulo di calore nel disposi- 
tivo. In dispositivi piccolissimi . la velo- 
cità di commutazione può essere limitata 
dalla capacità del substrato di dissipare 
calore. Poiché il silicio ha una condutti- 
vità termica tre volte superiore all'arse- 
niuro di gallio. dispositivi molto piccoli 
di silicio possono essere fatti commutare 
alla stessa velocità di quelli costruiti con 
materiali «più veloci». 

Quindi, a ogni livello della gerarchia. 
si deve raggiungere un compromesso fra 
limiti di natura opposta; l'esempio più 
evidente si ha a livello dei dispositivi. I 
limiti dei dispositivi sono molteplici . pc r- 
ché. oltre ai limiti dei materiali, ne inclu- 
dono altri dovuti alle dimensioni e alla 
geometria. Nonostante ciò, è possibile 
stabilire con ragionevole certezza quale 
sia il problema principale a livello di di- 
spositivi per la gsi: determinare le mini- 
me dimensioni possibili di un transistore 
metallo-ossido-semiconduttore a effetto 
di campo o MOSFET. 

Un tipo comune di mosfet è costituito 
da due isole di silicio drogato per incre- 
mentare la concentrazione di portatori 
di carica negativa (silicio di tipo n) su 
uno strato del medesimo materiale dro- 
gato in modo da aumentare la concen- 
trazione di portatori di carica positiva 
(silicio di tipo/?). Uno strato di biossido 
di silicio, con funzioni di isolante, viene 
posto a formare un ponte fra le due isole, 
che sono chiamate «sorgente» e «poz- 
zo». Depositato sull'isolante fra la sor- 
gente e il pozzo vi è un elettrodo di me- 
tallo: la «porta». Una tensione di ingres- 
so positiva applicata alla porta attrae 
elettroni verso l'interfaccia fra il substra- 
to di silìcio e l'isolante. Gli elettroni for- 
mano un canale indotto, permettendo 
alla corrente di uscita di fluire dalla sor- 
gente al pozzo e inviando un segnale lo- 
gico al successivo stadio del circuito. In 
assenza di segnale di ingresso non si for- 
ma alcun canale, quindi non si ha alcuna 
corrente di uscita. 



u 
te 

UJ 

a 



e 
a. 
2 
C 




10" 



10" - 



10" 



10» 



10' 



IO 6 



IO 5 



10* 



IO 3 



10* 



10* 



10 



- 


GSI 











- 


ULSI 




y 


,. 


- 


VLSI 












- 


LSI 


si 












MSI / 










- 


sgf 

*ZSI 













I960 



1970 



1980 



1990 



2000 



2010 



2020 



Durante gli .inni sessanta il numero di componenti per chip è raddoppiato di anno in anno. Verso 
il 1972 i progettisti esaurirono lo spazio disponibile sul chip per aggiungere componenti e quindi 
il lasso di incremento diminuì. Nonostante ciò, secondo la proiezione più ottimistica, nel 2000 si 
perverrà all'integrazione su gigascala (usi), con un miliardo di componenti per chip, l Le proie- 
zioni differiscono nelle ipotesi riguardo ai limiti imposti dai processi di fabbricazione dei chip.) 



Dato che la tecnologia metallo-ossi- 
do-semiconduttore (MOS) è divenu- 
ta dominante nell'elettronica digitale, il 
raggiungimento dell'integrazione su gi- 
gascaia dipende dai tentativi in corso di 
ridurre le dimensioni dei MOSFET. Il pro- 
cesso di riduzione inizia con la definizio- 
ne di un fattore dì scala, spesso indicato 
con 5. Le dimensioni orizzontali e verti- 
cali del mosfet vengono quindi ridotte 
di un fattore 5. (Perciò, se il fattore di 
scala fosse 2, l'altezza e la larghezza del 
dispositivo verrebbero dimezzate.) I- 
noltre, la tensione di alimentazione vie- 
ne ridotta del medesimo fattore, il che 
mantiene costante l'intensità del campo 
elettrico e impedisce un aumento di sol- 
lecitazione sul dispositivo. 

La riduzione parallela delle dimensio- 
ni e del campo elettrico porta alcuni no- 
tevoli vantaggi. Il tempo richiesto per far 
commutare il dispositivo, tempo che di- 
pende dalla lunghezza del canale, si ri- 
duce di un fattore S. La potenza dissipa- 
ta per unità di superficie del chip resta 
costante, cosicché il problema della dis- 
sipazione del calore non si acuisce. La 



La storia dei chip può essere riassunta in un continuo incremento di densità, come dimostrano 
questi sei esemplari fabbricati dalla Fairchild Semiconductor Corporation Tra il 1959 e il 1985. 
In alto a sinistra e mostralo il primo transistore planare 1 1959): in alto a destra, il primo circuito 
integrato planare su un singolo chip, contenente quattro transistori e altri componenti (1961). 
Al centro a sinistra, vi è il primo circuito integrato lineare, con cinque transistori (1964); al 
centro a destra è illustrata una matrice logica bipolare con 180 transistori 1 1968), In basso a si- 
nistra si vede il primo chip da 16 bit contenente un'intera unità centrale di elaborazione (CFl) con 
20 000 transistori ( 1978), in basso a destra la crv clipper, che contiene 132 000 transistori < 1985». 



densità di impaccamento dei transistori 
sul chip, che dipende dall'area dei singoli 
dispositivi, cresce di un fattore S 2 . Forse 
il vantaggio più notevole è che l'energia 
consumata in ogni commutazione - che 
dipende dall'energia fornita e dal tempo 
di commutazione - diminuisce dì un fat- 
tore S 1 . Quindi il risultato dì una ridu- 
zione in scala delle dimensioni è un chip 
con un maggior numero di dispositivi, 
che commutano più velocemente consu- 
mando perciò meno energia. 

Dati questi vantaggi, i progettisti di 
chip si chiedono fino a che punto si può 
spingere la miniaturizzazione. La rispo- 
sta sta nella lunghezza minima ammissi- 
bile del canale del mosfet. Questo va- 
lore minimo deriva in parte dall'intera- 
zione fra la tensione dì alimentazione e 
la concentrazione degli atomi di impu- 
rezza (in genere boro) nel substrato di 
tipo p del canale. In ogni giunzione fra 
materiale di tipo/) e materiale di tipo n, 
i portatori di carica migrano verso il lato 
opposto dell'interfaccia, ove la rispettiva 
concentrazione è minore: gli elettroni 
migrano verso il lato di tipo p e le buche 
verso il lato di tipo n. Il risultato è che si 
forma una regione di carica spaziale pri- 
va di elettroni e buche. Per un corretto 
funzionamento, il canale deve essere 
lungo almeno il doppio di tale regione. 

Per rendere minima la lunghezza del 
canale è ovviamente desiderabile ridurre 
la lunghezza della regione di carica spa- 
ziale, il che può essere ottenuto aumen- 
tando la concentrazione dell'agente dro- 
gante. Così facendo, tuttavia, si ha l'ef- 



41 



SORGENTE PORTA POZZO 



SORGENTE PORTA POZZO AL1MEN- 

Q Q OTAZIONE 




OSSIDO (ISOLANTE) 



SUBSTRATO 



I MOsn-.T complementari .sono la base della tecnologia più usala per i circuiti integrali , Un md-.ii i 
è un transistore metallo-ossido-semiconduttore a effetto di campo. La carica elettrica in un 
semiconduttore come il silicio può essere trasportata dagli elettroni (portatori di carica negativa) 
o dalle buche (portatori di carica positiva!. Nel silicio di tipo » vi è prevalenza di elettroni, nel 
silicio di tipop di buche, sebbene ogni regione contenga anche una piccola quantità di portatori 
di carica opposta. Quando non vi è tensione alla porta, non passa corrente fra la sorgente e il 
pozzo. Quando invece viene applicata una tensione, i portatori minoritari vengono attirati sotto 
la porta, formando cosi un canale indotto che permette l'uscita di una grande quantità di corrente 
dal dispositivo. L'illustrazione mostra come si può disporre su un singolo chip una coppia 
di wosrci complementari (ovvero, uno con un canale di tipo n e uno con un canale di tipo pi. 



fetto indesiderato di dover aumentare la 
tensione di alimentazione. Se questa as- 
sume un valore troppo elevato, l'isolante 
di biossido di silicio sotto la porta subi- 
sce un cedimento, in seguito al processo 
di autoionizzazionc (rottura Zener) già 
menzionato. Per stabilire la lunghezza 
mìnima del canale occorre così concilia- 
re la tensione di alimentazione e la con- 
centrazione dell'agente drogante. Per 
valori tipici di tensione di alimentazione 
e di concentrazione dell'agente drogan- 
te, si può dimostrare che la lunghezza 
minima del canale è compresa fra 0,1 e 
0,2 micrometri. Perii momento tali limi- 
ti sono del tutto teorici: i mosfet oggi 
sul mercato hanno una lunghezza del ca- 
nale compresa fra uno e due micrometri. 
Se da un lato la riduzione in scala delle 
dimensioni è un grande vantaggio per i 
dispositivi, non è così per le sottili pelli- 
cole di metallo che connettono j transi- 
stori su un chip. In primo ìuogo, non 
tutte le connessioni fra i dispositivi di- 
ventano più corte via via che le dimen- 
sioni dei transistori si riducono; negli ul- 
timi 20 anni, mentre le dimensioni dei 
transistori si sono ridotte, quelle dei chip 
sono aumentate. Il risultato è che le con- 
nessioni su lunga distanza (che possono 
collegare transistori situati agli angoli 
opposti di un chip) sono divenute ten- 
denzialmente più lunghe. Il loro aumen- 
to di lunghezza è spesso descritto da un 
«fattore di scala del chip» {S c ) che cor- 
risponde alle dimensioni lineari del chip. 

Al contrario, le connessioni locali che 
*** congiungono transistori vicini di- 
ventano in effetti più corte proporzio- 
nalmente al fattore di scala S. Anche nel 
caso delle connessioni locali, tuttavia, la 
riduzione di dimensioni non porta bene- 
fici. A causa del comportamento elettri- 
co dei conduttori, il tempo richiesto af- 
finché un segnale venga trasportato da 
una connessione può non diminuire con 
la riduzione in lunghezza e in sezione del 



connettore. Il tempo di ritardo tende in- 
vece a rimanere costante. Per di più, la 
densità di corrente nel connettore cresce 
proporzionalmente a S. Se la densità di 
corrente assume valori sufficientemente 
elevati, il materiale con cui è costruito il 
connettore può addirittura venire trasci- 
nato via, lasciando dei vuoti. Questo fe- 
nomeno, noto come elettromigrazione, 
può alla lunga bloccare completamente 
la connessione. 

Il livello successivo è quello dei limiti 
dei circuiti. A questo proposito, uno dei 
problemi più significativi è determinare 
qual è la tensione di alimentazione mi- 
nima con la quale può funzionare un cir- 
cuito logico elementare. Il più semplice 
fra i circuiti logici è forse il circuito di 
inversione (o circuito NOT), che è un 
componente di quasi tutti i microcircuiti 
elettronici più complessi. Un circuito di 
inversione converte un ingresso a bassa 
tensione (uno «zero» nel linguaggio di- 
vinile ild calcolatori) in un'uscita adalla 
tensione (un «uno») e viceversa. 

Forse il circuito logico più significativo 
della GSt è un circuito di inversione co- 
stituito da un MOSFET con un canale di 
tipo n e da un MOSFET con un canale di 
tipo p, una combinazione che ha preso 
il nome di «tecnologia MOSFET comple- 
mentare». Finché il circuito non viene 
fatto commutare, uno dei due dispositivi 
è acceso (conduce corrente), mentre l'al- 
tro è spento (non conduce). Poiché i di- 
spositivi sono collegati in serie, il risul- 
tato dì tale configurazione è che il circui- 
to, quando non sta commutando, non 
consuma quasi energia. In effetti, ana- 
lizzandone le caratteristiche, si può di- 
mostrare che la tensione minima per far 
funzionare un circuito di inversione è cir- 
ca 0,1 volt a temperatura ambiente. 

Un consumo così basso è una delle 
ragioni per cui la tecnologia MOSFET 
complementare ha assunto una posizio- 
ne dominante nell'elaborazione dell'in- 
formazione. Questo domìnio e stato raf- 



forzato da un ulteriore limite dei circuiti: 
la lunghezza minima del canale. Ho già 
spiegato come la lunghezza del canale sia 
un limite a livello dei dispositivi, ma le 
lunghezze minime dei canali per mosfet 
a canale corto dipendono altresì dalla 
geometria del circuito in cui tali MOSFET 
vengono usati. Si può dimostrare che 
una co nfigurazione MOSFET complemen- 
tare permette l'uso dei canali più corti: 
tra 0. 10 e 0, 15 micrometri. L'incremento 
di velocità che si accompagna all'uso di 
un canale più corto è una delle ragioni 
del predominio della tecnologia mosfet 
complementare. 

Il maggior problema posto dal livello 
più alto della gerarchia, quello dei siste- 
mi, è riuscire a formulare un modello 
che possa collegare i parametri dei livelli 
più bassi con l'architettura e il confezio- 
namento generali del sistema. L'unico di 
tali modelli che io conosca è stato recen- 
temente formulato da Brian Bakoglu, 
che era allora un mio laureando alla 
Stanford University. Il modello, che noi 
chiamiamo SUSPENS, è in parte basato su 
una formula chiamata «regola di Rem» 
che, elaborata negli anni sessanta, è di- 
venuta molto nota fra i ricercatori di in- 
formatica nel decennio successivo. La 
regola di Rent mette in relazione il nu- 
mero di circuiti logici su un chip con il 
numero di connessioni necessarie per 
collegare tali circuiti e con il numero di 
piedini occorrenti per collegare il chip al 
resto del sistema. Una ingegnosa esten- 
sione della regola di Rent fornisce la lun- 
ghezza media delle connessioni sul chip. 

Il modello basato sulla regola di Rent 
include 26 parametri, otto dei quali sono 
misure dell'architettura del chip e del si- 
stema, così come viene configurata dalla 
regola stessa, quattro corrispondono alla 
tecnologia dei transistori, cinque al ca- 
blaggio del chip e nove alle connessioni 
fra i moduli (parti del sistema che con- 
tengono uno o più chip). Assegnando 
valori ai 26 parametri del modello, un 
progettista può ottenere la frequenza 
massima dell"«orologio» che scandisce il 
ritmo del sistema, le dimensioni ottimali 
del chip e calcolare la dissipazione totale 
di energia. Tali informazioni gli permet- 
tono di determinare il numero ottimale 
dì transistori per chip e di valutare l'ef- 
fetto che una nuova tecnologia costrut- 
tiva avrà sulle prestazioni del sistema. 

T\ ìunendo i limiti su più livelli, il mo- 
*■» dello del sistema riassume la gerar- 
chia da un punto di vista teorico, I limiti 
pratici, d'altra parte, possono essere de- 
scritti nel loro insieme da tre parametri: 
la dimensione minima di griglia, l'area 
utile del chip e l'efficienza di impacca- 
mento. La dimensione minima di griglia 
dà un'idea della più fine geometria rea- 
lizzabile sul chip e più precisamente 
si definisce come la larghezza minima 
di una connessione metallica sommata 
allo spazio minimo che la separa dalla 
connessione immediatamente successi- 
va. Un buon esempio è la lunghezza del- 



la porta di un MOSFET. che è poco mag- 
giore della lunghezza del canale. 

Nel 1960 la dimensione minima di gri- 
glia dei circuiti integrati era in media di 
circa 25 micrometri; nel 1980 era scesa a 
2.5 micrometri. Se l'andamento dovesse 
rimanere immutato, nel 2000 la dimen- 
sione minima sarebbe all'inarca di 0,25 
micrometri, non molto maggiore dei li- 
miti sopra descritti a livello dei disposi- 
tivi e dei circuiti. A causa della vicinanza 
di questi limiti , sembra improbabile che 
il tasso storico di diminuzione (11 per 
cento all'anno) si conservi negli anni no- 
vanta. Questa conclusione è rafforzata 
dal fatto che la dimensione minima ha 
iniziato ad avvicinarsi al limite di risolu- 
zione della litografia ottica usata nella 
costruzione dei circuiti integrati: il limite 
di risoluzione (circa 0,5 micrometri) è 
determinato dalle lunghezze d'onda più 
corte della radiazione visibile. 

Via via che la dimensione minima 
scendeva, l'area utile di un chip medio 
subiva un costante aumento. Le tenden- 
ze di questo parametro sono spesso ana- 
lizzate esaminando il lato dell'area utile 
del chip: la lunghezza del lato di un chip 



quadrato di dimensioni caratteristiche 
della sua epoca. Nel 1960 il lato era di 
1.4 millimetri; entro il 1980 aveva rag- 
giunto gli otto millimetri. Estrapolando 
l'andamento, si può pensare che nel 2000 
esisteranno chip di 50 millimetri di lato. 
Tuttavia limili pratici fanno pensare che 
il tasso di crescita rallenterà: nella li- 
tografia ottica occorre raggiungere un 
compromesso fra risoluzione e ampiezza 
del campo visivo. Poiché i chip vengono 
generalmente incisi in una sola volta, la 
necessità di una buona risoluzione dei 
particolari più piccoli limiterà l'aumento 
di dimensioni dei chip. Una previsione 
più realistica per l'anno 2000 è un chip 
con un lato da 20 a 40 millimetri. 

L'efficienza di impacca mento è. come 
suggerisce il nome stesso, una misura di 
quanto vicini possano venire disposti i 
transistori su un chip. Dagli anni sessan- 
ta l'efficienza di impaccamento è cre- 
sciuta notevolmente, a causa dei miglio- 
ramenti nei processi produttivi e delle 
innovazioni nei dispositivi e nei circuiti. 
Fino al 1972 la crescita è stata rapida; in 
quell'anno i progettisti hanno esaurito le 
aree di chip non ancora usate dove piaz- 



zare transistori e connessioni. Da allora 
la crescita dell'efficienza di impacca- 
mento è stata più lenta, dipendendo da 
una progettazione più complessa dei 
transistori, dall'aumento del numero di 
fasi di mascheratura nel processo fotoli- 
tografìco e addirittura dalla costruzione 
di dispositivi tridimensionali che sporgo- 
no sopra e sotto la superficie del chip. 

L'effetto congiunto dei cambiamenti 
nella dimensione minima di griglia, nel- 
l'area utile del chip e nell'efficienza di 
impaccamento ha determinato un rapi- 
do incremento del numero di compo- 
nenti su ogni chip. In effetti, questa cre- 
scita rappresenta uno dei più grossi pro- 
gressi tecnologici mai registrati. Parten- 
do da un unico componente nel 1959, il 
numero di componenti per chip è rad- 
doppiato di anno in anno. Negli anni set- 
tanta (a causa dei limiti pratici sopra de- 
scritti) il tasso di incremento è sceso, ma 
il numero dei componenti ha continuato 
ad aumentare dì un fattore quattro ogni 
tre anni, un livello comunque notevole. 
L'andamento dovrebbe continuare fino 
all'inizio degli anni novanta, quando 
l'effetto di altri limiti dovrebbe ulterior- 




SPESSORE 
DELL'OSSIDO 

(ISOLANTE) 
DELLA PORTA 



PROFONDITÀ 

DELLA GIUNZIONE 

FRA POZZO 

E SORGENTE 





La riduzione in scala delle dimensioni dei mosfet è vantaggiosa per i 
transistori. A questo scopo, tutte le dimensioni lineari e ta tensione dì a- 
limentazione sono ridotte di un opportuno fattore di scala S. che in que- 
sto caso ha valore 2, Come si vede in basso, la densità di impaccamento 



cresce con S 2 . Il rilardo di porla, ossia il tempo necessario perché un 
elettrone o una buca percorra il canate, decresce con 5. La densità di e- 
nergia resta costante perché tensione e corrente di alimentazione vengo- 
no ridotte. L'energia richiesta per la commutazione diminuisce con 5-'. 



42 



43 



mente ridurre il tasso di crescita. Nono- 
stante ciò, la risposta alla domanda posta 
all'inizio dell'articolo è che la GSI (un 
miliardo di componenti per chip) do- 
vrebbe essere raggiunta entro il 2000. 

T 'impatto della gsi sul mercato non 
■1— ' avrà comunque effetti immediati. 
L'esperienza indica che il volume di pro- 
duzione di un nuovo circuito integrato 



CONNESSIONE LOCALE 



raggiunge i! suo massimo solo dopo un 
periodo di tre-cinque anni dalla sua com- 
mercializzazione. (Il ritardo è necessario 
perché la domanda cresca e sia raggiunta 
la piena capacità produttiva.) Per questo 
motivo l'effetto di un chip con un miliar- 
do di componenti probabilmente non sa- 
rà avvertito fino a dopo il 2005. Di con- 
seguenza sia i limiti pratici, sia i limiti 
teorici fanno pensare che il passo della 




^CONNESSIONE 
/SU LUNGA DISTANZA 



- — TRANSISTORE 



OD 

!□□□ 
ODD 
!□□□ 
ODO 
ODO 
!□□□ 

inno 

!□□□ 
!□□□ 
ODD 

ODD 

inna 
lana 

ODD 

ODD 

ODD 
ODD 



□□□ 

nnn 
Dna 
ano 
ano 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 
nnn 



nanna 
nnnnn 
Danna 
annnn 
nnnaa 
annnn 
aaaaa 
aaaan 
nnnnn 
nnnnn 
nnnnn 
aaaaa 
aaaan 
aaaaa 
aannn 
naaaa 
aaaaa 
aaaaa 
aaaaa 



aan 
aaa 
aan 
nnn 

nnn 
nnn 
nnn 

nnn 
nnn 
naa 
aan 
naa 
ann 
nnn 

naa 
aaa 
aaa 
aaa 



aannn 

nnnnn 
nnnnn 
nnnnn 
nnnnn 
nnnnn 
nnnnn 
nnnna 
aaaan 
nnnnn 
nnnnn 
nnnna 
aaaaa 
aaaaa 
aaaan 
nnnna 
aaaaa 
aaaaa 
nnnnn 



La riduzione in scala delle dimensioni delle connessioni fra i dispositivi non porta i medesimi 
benefici delta riduzione in stala delle dimensioni dei dispositivi stessi. A mano a mano che i 
dispositivi tendevano a diventare più piccoli, i chip sono diventati più grandi. Il fattore di scala' 
dei chip {Set misura l'incremento proporzionale del lato di un chip. L'illustrazione mostra 
schematicamente la riduzione in scala di un chip. Nell'esempio S (la diminuzione proporzionale 
delle dimensioni di un dispositivo) e S r valgono entrambi 2. Mentre le connessioni locali Tra due 
dispositivi vicini diminuiscono con S, le connessioni su lunga distanza tendono a crescere con Si*. 



rivoluzione informatica si manterrà so- 
stenuto per i prossimi due decenni. 

Avendo esaminato ì campì teorico e 
pratico, vorrei ora allontanarmi dalla 
scienza e dalla tecnologia per prendere 
in considerazione la storia, che per ana- 
logia può servire da guida al futuro della 
rivoluzione informatica. Gli storici han- 
no spesso osservato che una tecnologia 
che ha successo commerciale tende a se- 
guire una curva di sviluppo a forma di S. 
All'inizio lo sviluppo è lento e in genere 
limitato ai laboratori di ricerca ; dopo che 
ci si è resi conto della portata commer- 
ciale della tecnologia in questione, suc- 
cessivamente alla sua prima introduzio- 
ne sul mercato, vengono fatti grandi in- 
vestimenti su di essa; segue un periodo 
di rapido progresso. Al massimo della 
curva, quando vengono raggiunti i primi 
limiti fondamentali, lo sviluppo rallenta 
e prevale l'obsolescenza tecnologica. 

Vari segni indicano che la rivoluzione 
informatica sta seguendo questo anda- 
mento, come fece la Rivoluzione indu- 
striale iniziata nel XVIII secolo. Consi- 
derando le analogie fra questi due sov- 
vertimenti tecnologici, è possibile for- 
se localizzare la rivoluzione informatica 
sulla curva a S. Mi sembra innegabile 
che il ferro sia stato il materiale più im- 
portante nella Rivoluzione industriale. 
Analogamente, possiamo considerare il 
silicioquale materiale fondamentale del- 
la rivoluzione informatica. Il ferro in le- 
ga con altri elementi nell'acciaio si può 
paragonare al silicio drogato con atomi 
di impurezze, ossia il materiale di base 
dei circuiti integrati. L'analogia può es- 
sere estesa a livello dei dispositivi (un 
transistore e un pistone), dei circuiti (un 
circuito integrato e un motore a combu- 
stione interna) e dei sistemi (una rete di 
calcolatori e un sistema di trasporti). 

Dal 1860 al 1900 il tasso di produzione 
del facci aio negli Stati Uniti raddoppiò 
ogni-quattro anni. Alla fine di tale perio- 
do fu raggiunta la sommità della S e la 
curva della produzione, ormai satura, si 
appiattì: dal 1900 al 1985 la produzione 
dell'acciaio è rimasta pressoché costan- 
te. La produzione di silicio, dal canto 
suo , è an co ra n el I a parte asce n de me de 1 - 
la curva. Per oltre un decennio, il tasso 
di produzione è raddoppiato ogni due 
anni. Inoltre, come ho detto, l'obiettivo 
della osi suggerisce che la rapida crescita 
continuerà per altri 20 anni. Tuttavia, 
non molto tempo dopo, probabilmente 
si raggiungerà la spalla della S e la pro- 
duzione di silicio si stabilizzerà o, quanto 
meno, aumenterà più lentamente, 

È notevole che, anche se si trova alla 
sommità della curva a S, l'acciaio rimane 
il materiale industriale dominante in ter- 
mini di tonnellate prodotte. Eppure, la 
produzione di altri materiali come l'allu- 
minio, il titanio, la plastica e i materiali 
compositi sta crescendo molto più rapi- 
damente di quella dell'acciaio. Probabil- 
mente l'industria dei circuiti integrati se- 
guirà un andamento simile. Il silicio ri- 
marrà senza dubbio il materiale domi- 



44 



PROPRIETÀ 


VALORE PRIMA 

DELLA 

RIDUZIONE IN SCALA 


VALORE DOPO LA 
RIDUZIONE IN SCALA 


LUNGHEZZA 

DELLE CONNESSIONI 

LOCALI 

SU LUNGA DISTANZA 


L 
L 


L/S 
S C L 


SPESSORE 


W 


WjS 


LARGHEZZA 


H 


H/S 


RESISTENZA 

DELLE CONNESSIONI 

LOCALI 

SU LUNGA DISTANZA 


R 
R 


SR 
ScS 2 R 


CAPACITÀ 

DELLE CONNESSIONI 

LOCALI 

SU LUNGA DISTANZA 


C 

C 


C/S 

ScC 


RITARDO NELLE 
CONNESSIONI 

LOCALI 

SU LUNGA DISTANZA 


RC 
RC 


RC 
(SSc^ RC 


DENSITÀ 

DI CORRENTE 


J 


SJ 



Fra gli effetti della riduzione in scala delle connessioni emergono notevoli svantaggi. A mano a 
manti che vinyiinii ridotte le dimensioni delle connessioni, il tempo di ritardo sulle connessioni 
su lunga dtetan?" (il tempo richiesto affinché un segnale attraversi la connessione) tende a 
crescere esponenzialmente con il prodotto di 5 per S r . La densità di corrente cresce con S, il che 
può danneggiare la connessione, lasciando spazi vuoti che finiscono per interromperla del tutto. 



nante, ma il punto focale dell'interesse 
scientifico e della crescita economica si 
sposterà su altri materiali: fra questi, cir- 
cuiti integrati a superconduzione crioge- 
nica, pellicole sottili dì materiali isolanti 
o semiconduttori e substrati formati da 
diversi materiali per deposizione a fascio 
molecolare. Tali possibilità suggerisco- 
no che lo sviluppo non terminerà neces- 
sariamente al massimo della curva a S. 
In effetti, una caratteristica della storia 
della tecnologia che fa meditare è la 
comparsa di discontinuità: punti in cui i 
limiti precedenti vengono superati e si 
aprono nuovi orizzonti. Le discontinuità 
sono provocate da scoperte o invenzioni 
che cambiano notevolmente le prospet- 
tive di sviluppo. Vi sono parecchie inno- 
vazioni che potrebbero mutare radical- 

TENSIONE . 
D'INGRESSO 



mente la tecnologia dei circuiti integrati 
e che possono venir meglio capite in ter- 
mini delle scale di lunghezza alle quali 
producono i loro effetti. 

Una prima scala è data dalla distanza 
che un elettrone o una buca può 
percorrere nel silicio, prima di urtare un 
atomo di silicio in vibrazione o un atomo 
di impurezza. Quanto più questa distan- 
za, chiamata cammino libero medio, è 
grande, tanto più velocemente si sposta 
il portatore di carica. È possibile aumen- 
tare il cammino libero medio sostituen- 
do semplicemente l'arse ni uro di gali io al 
silicio, come avviene in un mesfet (tran- 
sistore metallo-semiconduttore a effetto 
di campo). Una soluzione più radicale è 
rappresentata dal modfet (transistore 



Tji 



tensione 
di alimentazione 

— O 



\M L?: 



TENSIONE 
Ò DI USCITA 



Un circuito di inversione lo circuito noti comprende moskkt complementari. Questo circuito 
logico elementare converte un ingresso a bassa tensione (uno «zero») in un'uscita ad alta tensione 
(un «uno») e viceversa. A meno che il circuito stia commutando, uno dei due mosfkt è sempre 
spento (non conduce corrente) mentre l'altro è acceso (conduce corrente). Dato che i dispositivi 
sono collegati in serie, il circuito consuina pochissima energia quando non sta commutando. Il 
basso consumo è uno dei grandi vantaggi offerti dalla tecnologia mosfet complementare. 



AMBIENTE E 
ENQUESf AMENTI 

LL MjIL.iZL adizione italiana di 

SCIENTIFIC AMERICAN 

ha dedicato all'argomento 
diversi articoli: 



Il confinamento 

dalla teoria radioattiva 

di B. L. Cohen (n. 110) 



Il problema 

dell'anidride carbonica 
di G. M. Woodwell (n. 115) 



Inquinamento da PCB 

di H. Suzuki (n. 116) 



Dispersione di inquinanti 

in atmosfera a scala locale 

di D. An fossi, F, Bossa 

cR. Richiardone (n. 129) 



Pioggia acida 

di G.E. Likens, R.F. Wrigm, 

J.N. Galloway e T.J. Butler (n. 136) 



Contaminazione ambientala 
da fonti energetiche 

di M. Dall'Aglio (n. 1 53) 



Emissioni accidentali 

di radioattività 

di S.A. Fetter e K. Tsipis (n. 154) 



Effetti biologici di radiazioni 

ionizzanti di basso livello 

di A.C. Upton (n. 164) 



licheni: indicatori fisiologici 
della qualità dell'aria 

di M. Spampani (n. 167) 



Anidride carbonica e clima 

di B. Revelle (n. 170) 



Gli effetti sul clima 

di una guerra nucleare 

di R.P. Turco, O.B. Toon, 

T.P. Ackerman, J.B. Potlack 

e C. Sagan (n. 194) 



45 



t 



o 

m 



z 
g 
tn 

z 







/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 

/ 


IDEALE 

/ 
/ 
/ 
/ 
/ 
/ 
/ 
/ 
s 
/ 

PUNTO DI TRANSIZIONE 
\ PRATICA 





TENSIONE DI INGRESSO — > 

La curva di trasferimento del circuito di inversione della pagina precedente riporta la tensione 
d'uscita in funzione delta tensione d'ingresso. Da un punto di vista teorico la curva dovrebbe 
essere a gradino, ossia nel punto di transizione fra un'uscita alta e una bassa dovrebbe essere 
perfettamente verticale. In pratica questo non accade, ma la curva del circuito di inversio- 
ne complementare si avvicina alla situazione ideale più della curva di ogni altro circuito. 



10 4 



• CALCOLATORI AD AITE PRESTAZIONI 
® MATRICI DI PORTA BIPOLARI 

O MATRICI DI PORTA A CMOS 

• MICROUNITA DI ELABORAZIONE 
□ RAM STATICHE 

■ RAM DINAMICHE 



Q 

IL 



o 

a: 



2 
O 




NUMERO DI PORTE O DI BIT 

La regola di Reni descrive la relazione fra il numero di circuiti logici su un chip e il numero di 
piedini necessari per cnllegare il chip al resto del sistema. La regola è empirica ed è stata elaborata 
negli anni sessanta a mano a mano che si andava accumulando esperienza sui chip. La regola di 
Rem è uno dei fondamenti di un modello generale che mette in relazione le proprietà dei 
materiali, dei dispositivi e dei circuiti con quelle dei sistemi in cui vengono impiegati. 



drogato per modulazione a effetto di 
campo), nel quale un sottile strato di ar- 
seniuro di gallio e alluminio viene depo- 
sitato su un substrato di arseniuro di gal- 
lio non drogato. L'assenza di atomi di 
impurezze incrementa il cammino libero 
medio, rendendo il modfet più veloce 
del MESFET, che a sua volta è più veloce 
del MOSFET. 

La velocità dei portatori di carica può 
essere ulteriormente incrementata su 
una scala di poco inferiore al cammino 
libero medio. Quando la lunghezza del 
canale è uguale o minore de! cammino 
libero medio di un elettrone, questo può 
attraversare il canale senza alcuna colli- 
sione; si parla in questo caso di moto 
balistico. Sulle brevi distanze la velocità 
balistica può essere parecchie volte mag- 
giore della velocità di un elettrone sotto- 
posto a molteplici collisioni in un canale 
più lungo del cammino libero medio. I 
transistori balistici costituiscono un'altra 
frontiera nello sviluppo dei circuiti inte- 
grati meritevole dì accurato studio. 

Su una scala ancora più piccola si entra 
nei campo della meccanica quantistica, 
a ordini di grandezza inferiori al cammi- 
no libero medio, che nel silicio è di circa 
10 nanometri (10 miliardesimi dì milli- 
metro). Una caratteristica de! modfet 
sopra descritto è quella di riunire due 
materiali in un solo reticolo cristallino, 
chiamato super-reticolo. Le proprietà fi- 
siche di uno dei materiali (l'arseniuro di 
gallio) fanno sì che esso agisca come un 
«pozzo quantico», catturando elettroni 
dall'altro materiale (l'arseniuro di gallio 
e alluminio.) Mediante la tecnologia 
dei super-reticoli, si potrebbero costrui- 
re pozzi quantici in senso orizzontale e 
verticale entro un cristallo, la cui sezione 
assomiglierebbe a una scacchiera. Il pas- 
saggio, per effetto «tunnel», degli elet- 
troni da una casella all'altra potrebbe es- 
sere sfruttato per compiere operazioni 
digitali. I dispositivi a pozzo quantico 
potrebbero essere oltre 10 volte più ve- 
loci di quanto saranno iMOSFETdel 2000 
secondo le previsioni più ottimistiche. 

"^on sono ancora stati costruiti dispo- 
l^ sitivi tridimensionali a pozzo quan- 
tico, ma la loro realizzazione rimane una 
interessante prospettiva appena oltre 
l'orizzonte tecnologico attuale. Se i di- 
spositivi a pozzo quantico divenissero re- 
altà, potrebbero rialzare decisamente la 
pendenza della curva a S. In effetti, la 
situazione attuale può essere paragonata 
a quella degli anni cinquanta, fra l'inven- 
zione del transistore e quella del circuito 
integrato. Il più rudimentale dispositivo 
a pozzo quantico - il MODFET - è già stato 
messo a punto. Ciò che rimane da fare è 
estendere questo concetto a strutture tri- 
dimensionali, fornire connessioni fra di 
esse e inserire questi dispositivi in nuove 
architetture di calcolatori. Se queste 
prospettive potranno essere realizzate, 
sarà possibile trascendere tutti i limiti at- 
tuali nel campo della progettazione e 
della produzione dei chip. 



46 






l 



^<i 



• 










Programmazione 
per l'elaborazione avanzata 

/ calcolatori paralleli, richiedendo programmi in grado di svolgere 
simultaneamente una molteplicità di operazioni, pongono il problema di 
come organizzare in un tutto coerente un complesso intreccio dì attività 

di David Gelernter 



Ica! co latori sono eccessivamente 
lenti. Anche la più veloce tra le 
macchine convenzionali non può 
elaborare più di 200 milioni di moltipli- 
cazioni al secondo. Come è dunque pos- 
sibile affrontare problemi difficili, come 
per esempio la simulazione di interazioni 
di sistemi di atomi? Piccole simulazioni 
a livello atomico possono girare per set- 
timane sulle macchine più veloci della 
generazione attuale. Molti altri proble- 
mi importanti sono altrettanto o ancora 
più difficili, dalle simulazioni delle inte- 
razioni gravitazionali fra oggetti celesti , 
ai problemi di fluidodinamica fonda- 
mentali per le previsioni meteorologi- 
che, alla ricerca veloce all'interno di 
enormi basi di dati (un problema, que- 
st'ultimo, di grande importanza per l'in- 
telligenza artificiale). 

Come espediente temporaneo, mi- 
gliorandone i circuiti e l'organizzazione 
interna, si può rendere più veloce il cal- 
colatore sequenziale di tipo tradizionale, 
che esegue le istruzioni una alla volta 
grazie alla sua unità centrale di elabora- 
zione. La risposta di lungo termine, pe- 
rò, è il parallelismo: il collegamento di 
molti calcolatori, concentrati su un uni- 
co problema. Dieci calcolatori identici 
che lavorano insieme a un unico proble- 
ma lo risolveranno, nel migliore dei casi, 
10 volte più rapidamente di un singolo 
calcolatore che lavori da solo. Di conse- 
guenza, oggi si trovano in commercio 
calcolatori paralleli che incorporano de- 
cine, centinaia o addirittura migliaia di 
singole unità di elaborazione. La costru- 
zione di un calcolatore parallelo pone 



vari problemi di ingegneria, molti dei 
quali relativi alla definizione di modalità 
di comunicazione fra le unità di elabora- 
zione (si veda l'articolo Architetture per 
ì supercakolatori di Geoffrey C. Fox e 
Paul C. Messina a pagina 28). Inoltre, se 
le strategie per rendere più veloci i cal- 
colatori convenzionali comportano as- 
sestamenti di importanza relativamente 
secondaria nello stile di programmazio- 
ne, questa impostazione fa nascere an- 
che un difficile problema di software. 

Per cominciare, si immagini che il pro- 
gramma per il calcolatore sia una sorta 
di macchina. Un programma parallelo è 
una macchina che differisce da un pro- 
gramma sequenziale tanto radicalmente 
quanto un calcolatore parallelo differi- 
sce dal suo corrispettivo sequenziale. Da 
un certo punto di vista, ovviamente, un 
programma è solo un documento: un in- 
sieme di istruzioni che devono essere 
eseguite dal calcolatore, scritte in un lin- 
guaggio comprensibile sia al program- 
matore sia alla macchina. Quando, pe- 
rò, le istruzioni vengono eseguite, il pro- 
gramma diviene un evento, un processo 
che trasforma dati in risultati. Conside- 
rare un programma come una macchina 
riconcilia i due aspetti: il testo è la mac- 
china prima che venga accesa e l'evento 
è la macchina in attività. 

Non c'è nulla che un programma pos- 
sa fare e che non possa essere fatto da 
un «dispositivo di calcolo» meccanico, 
costrutto con ingranaggi e catene. La 
macchina logica (il software), però, è più 
facile da costruire: la si può realizzare su 
un terminale con l'uso di un linguaggio 



Per la manutenzione dell'alveare le api eseguono un programma parallelo. Come questi insetti, 
individualmente deboli, ma capaci di lavorare di concerto, un programma parallelo può concen- 
trare una grande potenza di calcolo su un problema definendo molteplici processi (sottoprogram- 
mi I, o luoghi di attività. I.e api coordinano l'attività mediante segnali visivi e chimici; analo- 
gamente, i processi di un programma parallelo devono comunicare tra toro per poter cooperare - 



di programmazione. Se il programma 
stesso è una macchina, che ruolo ha il 
calcolatore su cui il programma viene 
materialmente eseguito? Esso non di- 
venta altro che una sorta di fonte di ener- 
gia per la macchina logica. Così, di soli- 
to, si può eseguire uno stesso program- 
ma su un'ampia gamma di calcolatori 
dissimili e le sue caratteristiche possono 
essere in gran parte indipendenti dai det- 
tagli fisici del calcolatore «ospitante». 

Pertanto possiamo discutere l'elabo- 
razione parallela in termini di soli pro- 
grammi, considerando le macchine vere 
e proprie solo in casi speciali laddove 
software e hardware sono strettamente 
intrecciati. Un programma di tipo con- 
venzionale svolge una operazione alla 
volta, ma un programma parallelo deve 
creare e gestire simultaneamente molti 
filoni di attività. Deve dividere un com- 
pito in molte parti e deve coordinarle 
stabilendo un flusso ordinato di istruzio- 
ni, dati e risultati. 

Per costruire un nuovo tipo di macchi- 
na logica abbiamo bisogno di un nuovo 
tipo di scatola di montaggio: un nuovo 
linguaggio di programmazione. I lin- 
guaggi tradizionali non hanno un voca- 
bolario e una sintassi adatti a specificare 
il parallelismo. Per dirla in parole pove- 
re, permettono a un programmatore di 
scrivere «Fai A. poi B e poi C». ma non 
«Fai A, B e C contemporaneamente». 
L'esigenza pratica di un nuovo linguag- 
gio, però, è solo la manifestazione super- 
ficiale di un problema più profondo. Un 
linguaggio di programmazione non vie- 
ne alla luce da solo: è l'espressione di un 
particolare «modello di software», di 
una particolare impostazione del modo 
di costruire programmi. Allora la do- 
manda fondamentale diventa: «Come 
dovrebbe essere un programma paralle- 
lo?» Fra le molte linee di ricerca attual- 
mente seguite vedo fondamentalmente 
tre tipi di risposta. 

51 







RIGA 






X 




COLONNA 




= 




RISULTATO 




















Ci 






































C2 




































C3 




































C4 






























1 






... 






















Il 


Rt 


R4 




R„ 


;>n 




c„ 


































\y 



















for (ogni RIGA e COLONNA in RISULTATO) do 

RISUlTATO[RIGA. COLONNA].» Prodotto! RIGA, COLONNA) 



f 



JK 



RISULTATO[1.lp 
PnxloUó (1,1) 



RISULTATO}! ,2j" = 
Predano (1,2) 



ì 



RI5ULTATO(1,3);= 
Prodotto (1.3) 



Il prodotto di due matrici è un tipico problema per ìl quale un programma convenzionale può 
essere trasformato automaticamente in un programma parallelo. Ogni elemento del risultato è 
il «prodotto righe per colonne» di una riga della prima matrice e di una colonna della seconda, 
calcolato moltiplicando ciascun elemento della riga per il corrispondente elemento della colonna 
e poi sommando I prodotti ottenuti {in allo). Va programma convenzionale per il prodotto di 
matrici si basa su un sottoprogramma che esegue le moltiplicazioni a coppie, annidato entro un 
ciclo che calcola ì prodotti successivi lai centro). Dato che ogni prodotto riga per colonna può 
essere calcolato indipendentemente dagli altri, un compilatore che genera programmi paralleli 
può trasformare automaticamente il ciclo in una schiera di attività simultanee (in basso). 



T a prima scuola si limita ad accantona- 
*— i re i] problema: invece di proporre 
nuovi modelli di software, si basa sulla 
generazione automatica di versioni pa- 
rallele dei programmi comuni. All'inter- 
no di questa scuola, una prima imposta- 
zione estende la strategia grazie alla qua- 
le si può eseguire un singolo programma 
su molti* calcolatori diversi. In generale, 
un calcolatore non può capire senza al- 
cun aiuto un linguaggio di programma- 
zione. Dire che il valore di una variabile 
è uguale al prodotto di due numeri ri- 
chiede semplicemente una riga in un lin- 
guaggio di programmazione «di alto li- 
vello» come il Fortran o il Pascal, ma 
comporta un gran numero di operazioni 
di macchina, operazioni che variano a 
seconda del modo in cui è stato proget- 
tato il calcolatore. Pertanto il comando 
deve essere tradotto nelle giuste istruzio- 
ni elementari nel codice di macchina, il 
linguaggio primitivo, digitale, del calco- 
latore. Di solito la traduzione è effettua- 
ta da un secondo programma, che pren- 
de il nome di compilatore. 

Badando soprattutto a non gettare al 
vento il colossale investimento di tempo 



e di denaro rappresentato dai program- 
mi già esistenti, ricercatori dell'Univer- 
sità detrillinois, della Rice University, 
della Multiflow Computer, Inc., della 
IBM Corporation e di altre istituzioni 
stanno sviluppando da tempo compila- 
tori in grado di trasformare automatica- 
mente programmi sequenziali in codice 
di macchina per calcolatori paralleli. Un 
compilatore di questo genere trova il pa- 
rallelismo nascosto in un programma se- 
quenziale ricercando nel suo testo ope- 
razioni che in effetti possano essere svol- 
te simultaneamente, anche se il pro- 
gramma specifica che vengano eseguite 
una alla volta. Esso quindi genera un 
codice che riflette il parallelismo impli- 
cito «scovato». 

Il cuore di molti programmi, per e- 
sempio, è un ciclo di elaborazione in cui 
la stessa operazione, o la stessa serie di 
operazioni, viene eseguita per ciascuno 
degli elementi di una successione di va- 
lori. Un compilatore che genera pro- 
grammi paralleli spesso può dire, esami- 
nando il ciclo, se le sue iterazioni debbo- 
no essere eseguite davvero sequenzial- 
mente, come prescrive il programma. Se 



ogni nuovo calcolo dipende da valori ca I- 
colati in un'iterazione precedente, è ne- 
cessaria la sequenzialità. In caso contra- 
rio, il compilatore può riuscire a trasfor- 
mare il ciclo in codice di macchina paral- 
lelo, permettendo al calcolatore di ese- 
guire tutti i calcoli simultaneamente. 

Si consideri un programma per il cal- 
colo del prodotto di due matrici, una 
procedura fondamentale nel calcolo nu- 
merico: ogni elemento della matrice ri- 
sultante rappresenta il «prodotto righe 
per colonne» di una riga della prima ma- 
trice per una colonna della seconda. Per 
ottenere l'elemento della riga i, colonna 
/, della matrice risultante si moltiplicano 
tutti gli elementi della riga i della prima 
matrice per i loro corrispondenti nella 
colonna/della seconda matrice (il primo 
elemento per il primo elemento, il se- 
condo per il secondo e così via) e si som- 
mano i prodotti. Un programma con- 
venzionale per il prodotto di matrici può 
comprendere due cicli uno all'interno 
dell'altro: il ciclo interno per le moltipli- 
cazioni a coppie e quello esterno per il 
calcolo dei successivi prodotti riga per 
colonna. A ogni iterazione il ciclo ester- 
no prende una riga e una colonna, effet- 
tua le moltiplicazioni mediante il ciclo 
interno e somma i prodotti. 

Dato che ogni iterazione è autonoma 
dal punto di vista logico, un compilatore 
che genera programmi paralleli può tra- 
sformare il ciclo in codice parallelo. Se 
si moltiplicano, per esempio, due matri- 
ci quadrate di ordine 5(10 (cioè con 500 
righe e 500 colonne) . rendendo parallelo 
il ciclo esterno ed eseguendo simultanea- 
mente i calcoli dei prodotti riga per co- 
lonna si può aumentare la velocità del 
calcolo {nel caso migliore) di 250 000 
volte. («Nel caso migliore» qui significa 
«su un calcolatore che contiene 250 000 
unità di elaborazione». Per ora non esi- 
stono macchine di impiego generale così 
grandi; il minor numero di unità presenti 
nelle macchine attuali pone un limite su- 
periore al miglioramento di velocità, 
perché costringe ciascuna unità a svolge- 
re in successione molti dei passi che po- 
tenzialmente potrebbero essere eseguiti 
in parallelo.) 

I calcolatori a flusso di dati offrono un 
altro metodo per sfruttare il parallelismo 
implicito. Di solit, queste macchine non 
vengono costruite nell'intento di preser- 
vare le grandi biblioteche di software esi- 
stenti, poiché in genere vengono conce- 
pite insieme con un nuovo stile dì pro- 
grammazione. Condividono, però, con 
quell'intento il problema di base: come 
evitare di dover realizzare modelli dì 
software esplicitamente paralleli. Un 
programma per una macchina a flusso di 
dati non specifica una sequenza di ese- 
cuzione: gli unici vincoli sull'ordine di e- 
secuzione sono quelli imposti dalla strut- 
tura logica del programma. Due istru- 
zioni qualunque possono essere eseguite 
simultaneamente da unità di elaborazio- 
ne distinte, a meno che un'istruzione ab- 
bia bisogno di un valore il cui calcolo 



52 



MESSAGGIO 



STRUTTURA 01 PROGRAMMA 
STRUTTURA DI DATI 



/ STHUTTURA DI DATI / 

f j> r — — ti / 1 i i i i m □ n n n n 




I modelli dei programmi paralleli si distinguono per gli stili di comuni- 
cazione. Il modello a trasferimento di messaggi definisce molti sotto- 
programmi ia sinistrai, ciascuno con le proprie strutture di dati (ma- 
trici, liste e altre configurazioni di dati che vengono trasformate dalle 
strutture di programma attive l. ! sottoprogrammi non possono acce- 
dere l'uno alle strutture di dati di un altro: comunicano solo inviando 



messaggi. In un secondo metodo, applicato nei programmi per la «mac- 
china connessionistica», molte strutture di programma identiche ese- 
guono un'unica Istruzione , emessa da un «capoprogramma», per tra- 
sformare molte parti di una struttura di dati la/ centro). Un terzo 
metodo permette l'attività simultanea sulla stessa struttura di dati da 
parte di strutture di programma oon sincronizzale fra loro (o destra). 



dipende direttamente o indirettamente 
dall'altra. In questo caso la sua esecuzio- 
ne è rimandata fino a che arriva il dato. 
I dati fluiscono da istruzione a istruzione 
mentre il programma viene eseguito. 

Così (almeno in un ceno senso) il cal- 
colatore stesso, e non il programma, de- 
finisce i filoni paralleli di attività. I lin- 
guaggi che sono di solito associati alle 
macchine a flusso di dati (i «linguaggi 
funzionali») rendono più semplice per la 
macchina scomporre il programma in at- 
tività parallele. Questi linguaggi sempli- 
ficano le relazioni fra istruzioni nei dati 
permettendo a un programmatore di sta- 
bilire una sola volta il valore di una va- 
riabile. Dopo che il valore è stato stabi- 
lito, altre parti del programma possono 
usare la variabile liberamente e simulta- 
neamente senza preoccuparsi di quando 
e se il suo valore cambierà. 

Le ricerche attuali (condotte fra l'altro 
al Massachusetts Institute of Techno- 
logy, all'Università di Manchester e al- 
l'Università dello Utah) sulle macchine 
a flusso di dati e sui linguaggi funzionali 
chiariranno se questo metodo automati- 
co per affrontare il parallelismo è prati- 
cabile. Va notato, inoltre, che i linguaggi 
funzionali non sono legati indissolubil- 
mente alle macchine a flusso di dati. Per 
alcuni ricercatori la loro semplicità e la 
loro vicinanza ai modelli puramente ma- 
tematici di programmazione lì rendono 
interessanti di per sé. indipendentemen- 
te dal parallelismo. Altri (fra cui vaie la 
pena di ricordare Paul Hudak della Yale 
University) li usano come una base chia- 
ra ed elegante per la costruzione di lin- 
guaggi esplicitamente paralleli: ed è pro- 
prio questo l'argomento che andiamo 
ora ad affrontare. 

Se il parallelismo può essere trovato 
automaticamente, perché andare ol- 
tre? Perché preoccuparsi di creare nuovi 
modelli di software esplicitamente paral- 
leli? In realtà le trasformazioni automa- 
tiche funzionano bene solo per certi tipi 
di programma. Un compilatore che ge- 
nera programmi paralleli, per esempio, 
riscrive un programma sequenziale in 
codice di macchina parallelo sulla base 



del comportamento previsto del pro- 
gramma. Molti programmi (in particola- 
re le elaborazioni numeriche) si svolgo- 
no in modo prevedibile, e quindi un 
compilatore può determinare affidabil- 
mente quali parti del compilo possano 
essere affrontate in parallelo. Alcuni 
programmi, però, hanno configurazioni 
di esecuzione complesse o imprevedibili , 
e qui è diffìcile scoprire il parallelismo 
implicito. Per esempio, molti program- 
mi di intelligenza artificiale sembrano ri- 
cadere in questo gruppo. 

Le trasformazioni automatiche hanno 
uno svantaggio a livello più profondo: 



possono scoprire il parallelismo latente 

in un algoritmo (la procedura secondo la 
quale un programma risolve un proble- 
ma) esistente, ma non possono inventa- 
re nuovi algoritmi fondamentalmente 
paralleli . I programmatori che sono libe- 
ri di pensare in parallelo a volte inventa- 
no modi del tutto nuovi di risolvere pro- 
blemi. Per incorporare le loro invenzioni 
in programmi funzionanti hanno biso- 
gno dì linguaggi che permettano di espri- 
mere il parallelismo, cioè di linguaggi 
basati su modelli di software paralleli. 

La seconda e la terza risposta alla no- 
stra domanda iniziale sono, quindi, rap- 

■% 

i 




PROCESSO 
(SOTTOPROGRAMMA) 




c 
o 






In programma a trasferimento di messaggi calcola i moti retativi di più oggetti che interagiscono 
gravitazionalmente (al. Ogni oggetto è attribuito a un processo diverso. In ogni ciclo di calcolo 
ciascun processo invia a metà degli altri processi un messaggio che dà la posizione del suo oggetto 
ed è raggiunto da messaggi analoghi emessi dai rimanenti processi (PI. Al ricevimento del mes- 
saggio, ogni processo calcola la forza agente fra il suo oggetto e l'oggetto del processo che ha in- 
viato il messaggio e aggiunge il risultato ai messaggio stesso. Così ogni processo viene a cono- 
scenza di metà delle forze che agiscono sul suo oggetto dai messaggi che riceve e calcola diret- 
tamente l'altra metà (e). Poi ciascun processo può aggiornare la posizione del suo oggetto (<f). 



53 



m.m . 




èèéèéè 



Un programma per la macchina connessioni- 
si ica ordina una successione di numeri, ciascu- 
no dei quali è assegnalo a un diverso processo. 
Tutti i processi controllano simultaneamente 
l' ultima posizione (il bit meno significativo) 
del numero espresso in forma binaria. 1 nu- 
meri che hanno uno in quella posi/ione si 
spostano all'inizio della successione e sono ri- 
distribuiti fra gli elementi di memoria della 
macchina. La procedura è ripetuta per tutte 
le posizioni binarie: i numeri che hanno lo stes- 
so valore conservano le loro posizioni relative. 
Dopo un numero di passi pari al numero delle 
vi Ire binarie del valore più grande, l'insieme 
e ordinalo, con il valore più piccolo in testa - 



presentate da due modi generali di af- 
frontare il parallelismo esplicito, distin- 
guibili per i meccanismi per la comuni- 
cazione che essi stabiliscono fra i filoni 
paralleli di attività. 

La prima scuola prevede una serie di 
attività parallele, ciascuna delle quali as- 
somiglia a un programma convenzionale 
autonomo. Ciascuno di questi «proces- 
si», o sottoprogrammi, è costituito da 
strutture di programma e strutture di da- 
ti (matrici e liste, per esempio) proprio 
come i programmi convenzionali. Le 
strutture di programma sono attive: e- 
seguono istruzioni che trasformano le 
strutture di dati passive. (L'algoritmo è 
incorporato congiuntamente nelle strut- 
ture di programma e di dati.) 

I processi che collaborano alla risolu- 
zione di un problema di solito hanno bi- 
sogno di dati in comune. Ma in questo 
caso le strutture dei dati sono «sigillate» 
all'interno dei processi ; quindi il singolo 
processo non può attingere direttamente 
ai dati di un altro. I processi, invece, si 
scambiano messaggi: quando uno di essi 
ha dati per un altro, genera un messaggio 
e lo affida a un processo di tipo diverso, 
un programma di trasferimento dei mes- 
saggi, che instrada il messaggio fino alla 
sua destinazione. Tale schema aumenta 
la complessità del programma nel suo 
insieme, perché ciascun processo deve 



sapere come generare messaggi e dove 
inviarli. Al contempo, però, risolve il 
difficile problema di coordinare le co- 
municazioni fra i processi. 

Supponiamo che i processi possano 
far riferimento direttamente ciascuno al- 
le strutture interne di dati degli altri. Po- 
trebbero leggere, allora, valori incoe- 
renti o incompleti, ancora in preparazio- 
ne e non pronti per l'uso da parte di pro- 
cessi esterni. Se si impone che tutte 
le comunicazioni avvengano attraverso 
messaggi, questi problemi di coordina- 
mento si risolvono: i messaggi vengono 
generati solo quando sono disponibili 
dati completi e coerenti. 

La maggior parte degli schemi di tra- 
' sferimento di messaggi è complessa; 
ciò significa che gli schemi sono più adat- 
ti a problemi che si possano suddividere 
in unità relativamente grandi e in buona 
parte indipendenti, le cui esigenze di co- 
municazione possono ridursi a semplici 
e regolari scambi di messaggi. Conside- 
riamo, per esempio, la simulazione del 
moto di n oggetti, ciascuno dei quali 
eserciti un'attrazione gravitazionale su- 
gli altri. Il compilo può essere formulato 
in modo semplice, ma richiede una gran- 
de quantità di elaborazione: le simula- 
zioni di glandi sistemi si svolgono lenta- 
mente sui calcolatori convenzionali. Un 
buon modo per eseguirle più rapidamen- 
te è di calcolare in parallelo le forze che 
agiscono su tutti gli n corpi , aggiornare 
le loro posizioni e ripetere il calcolo. 

Un metodo basato sul trasferimento 
di messaggi , descritto da Charles L. Se i iz 
del California Instìtute of Technology, 
crea n processi, uno per ciascun oggetto. 
Durante ogni ciclo di elaborazione, cia- 
scun processo invia un messaggio, che 
contiene la posizione attuale del suo og- 
getto, a metà degli altri processi , e riceve 
messaggi analoghi dall'altra metà. Sup- 
poniamo che un messaggio proveniente 
da P, (il processo che si occupa dell'og- 
getto /) faccia la sua prima fermata a P» 
(il processo che si occupa di k). Pt allora 
calcola le forze che si esercitano fra k e 
/ in quel momento, aggiunge l'informa- 
zione al messaggio e lo ritrasmette a P t . 
Alla fine il messaggio ritorna a /*,. por- 
tando con sé una documentazione delle 
forze che agiscono fra je metà degli altri 
oggetti del sistema. Messaggi analoghi, 
inviati dagli altri oggetti del sistema han- 
no nel frattempo visitato P,, portando le 
informazioni di cui esso ha bisogno per 
calcolare le forze restanti agenti su/. Ora 
Pi può calcolare l'effetto complessivo di 
tutte le forze sulla posizione di /. 

La notevole quantità di lavoro richie- 
sta a ogni processo componente significa 
che questo risolutore del problema degli 
H corpi, come la maggior parte del soft- 
ware basato sul trasferimento di messag- 
gi, è più adatto a una macchina a grana 
abbastanza grossa, cioè una macchina 
dotata di unità di elaborazione potenti, 
ma in numero minore rispetto a quelle 
che si trovano in un calcolatore «a grana 



fine». La programmazione sistolica, che 
rappresenta una radicale variazione del 
trasferimento di messaggi, costituisce 
una eccezione alla regola della grana 
grossa. Un programma sistolico non ha 
bisogno di un processo di trasferimento 
di messaggi; gira su una macchina cabla- 
ta per lo specifico schema di comunica- 
zione richiesto dall'algoritmo. La geo- 
metria della macchina imita la geometria 
del programma e i dati sono introdotti 
ritmicamente (sistolicamente, appunto) 
nella rete stabile. Il fatto che gli schemi 
di comunicazione siano fìssi implica che 
i calcolatori siano macchine solitamente 
a grana fine, più adatte alla soluzione dì 
problemi con molte parti semplici. Lo 
schema di comunicazione a cablaggio 
fisso, peraltro, le limita di solito ad ap- 
plicazioni particolari. 

^fei programmi detti a trasferimento 
^^ di messaggi ogni struttura di dati è 
sigillata all'interno di qualche processo. 
Nell'altro grande gruppo dì soluzioni al 
problema della programmazione paral- 
lela, molti processi possono avere acces- 
so in comune alla stessa struttura. In uno 
di questi metodi ogni elemento di una 
grande struttura di dati può essere mo- 
dificato simultaneamente da una serie di 
processi identici che prendono ordini da 
un sìngolo «capoprocesso». In un altro 
metodo, si stabiliscono regole che per- 
mettono a molti processi di accedere di 
propria iniziativa a dati comuni. 

Il primo metodo è legato a una specì- 
fica struttura fìsica ed è incorporato in 
vari linguaggi di programmazione che 
sono stati progettati per un calcolatore 
parallelo chiamato Connection Machine 
o «macchina connessionistica» (si veda 
l'articolo La « Connection Machine» dì 
W. Daniel Hillìs in «Le Scienze» n. 228, 
agosto 1987). La macchina connessioni- 
stica è un calcolatore parallelo a grana 
fine che può essere descritto come una 
«memoria attiva». La memoria della 
macchina è divisa (in quello che attual- 
mente è il modello più grande) in circa 
65 000 piccoli frammenti, ciascuno dei 
quali è controllato dalla propria sempli- 
ce unità di elaborazione. I programmi 
per la macchina connessionistica ripro- 
ducono questa struttura; sì basano su 
strutture di dati distribuite nella memo- 
ria attiva, un elemento di dati per ogni 
unità di elaborazione. In effetti queste 
strutture dì dati si trasformano mentre 
ciascuna unità esegue la stessa istruzione 
in sincronismo con tutte le altre. Così un 
programma potrebbe moltiplicare per 3 
un gruppo di 10 000 valori semplicemen- 
te immagazzinando ogni valore in un di- 
verso elemento di memoria attiva ed 
emettendo l'istruzione «Moltiplicate tut- 
ti per 3 il vostro contenuto». 

Un numero sorprendentemente ele- 
vato di procedure funziona bene in que- 
sto ambiente; un esempio è l'ordina- 
mento di numeri, un'operazione fonda- 
mentale dell'informatica. Un program- 
ma di ordinamento per la macchina con- 



54 



ne ssionistica si basa su un algoritmo 
chiamato «ordinamento a radice». Nella 
versione per la macchina connessionisti- 
ca (derivata dalla corrispondente versio- 
ne sequenziale), i numeri non ordinati 
sono distribuiti fra le unità dì elaborazio- 
ne (uno per ogni unità, cioè uno per ogni 
elemento di memoria attiva). Tutti i pro- 
cessi controllano simultaneamente l'ulti- 
ma posizione (il bit meno significativo) 
nella sequenza di e 1 che rappresenta 
il numero in notazione binaria. I numeri 
che hanno unoO in questa posizione ven- 
gono spostati avanti nella successione, 
mentre i numeri che hanno un 1 vengono 
spostati indietro. (Un numero può salta- 
re direttamente da un elemento di me- 
moria attiva a un altro.) Jn questa rior- 
ganizzazione le posizioni relative dei nu- 
meri che hanno la stessa cifra nella po- 
sizione considerata sono conservate. La 
procedura viene ripetuta per il bit suc- 
cessivo e, dopo un numero di iterazioni 



pari ai bit del numero più grande, si pro- 
duce una successione ordinata con il nu- 
mero più piccolo in testa. Fino al limite 
imposto dalle circa 65 000 unità della 
macchina, la velocità di esecuzione di 
questa procedura è indipendente dal nu- 
mero degli elementi che vanno ordinati. 

T a macchina connessionistica permette 
•I— ' che accadano molte cose contempo- 
raneamente alla stessa struttura di dati e 
coordina tutta questa attività fornendo 
un unico capoprocesso e una schiera di 
lavoratori coscienziosi che eseguono i 
suoi ordini. Un altro metodo basato sul- 
le strutture di dati condivise risolve 
il problema del coordinamento permet- 
tendo a un processo «errante» di con- 
quistare un monopolio temporaneo sul 
blocco di dati che sta trasformando e im- 
pedendo cosi ad altri processi di agire 
contemporaneamente sugli stessi dati. 
In confronto allo stile ben ordinato dei 




Il programma a spazio di ennuple (n-uple) per il prodotto di due matrici suddivide i dati • i 
contenuti di G e H, le due matrici da moltiplicare) Tra le ennuple passive Un verde) e il compito 
di calcolare i prodotti riga per colonna fra le ennuple attive i in blu). Per stabilire qual è il prodotto 
riga per colonna da calcolare volta per volta, una ennupla attiva consuma una ennupla passiva 
che specifica la riga e la colonna che debbono essere moltiplicate (a). Aggiorna i dati, preparan- 
doli per la successiva ennupla attiva che deve svolgere il suo lavoro e rigenera la ennupla passiva 
ibi. Quindi trova e legge le ennuple che contengono Ri e Cy, la riga e la colonna (e). Dopo aver 
calcolato il prodotta Pjj, la ennupla attiva genera una nuova ennupla passiva che conterrà il 
risultato (d). (Intanto, le altre ennuple attive Mino impegnate a calcolare altri prodotti riga per 
colonna.) in, out e read sono operazioni in Linda, un linguaggio sviluppato dall'autore e colleghi. 



programmi della macchina connessioni- 
stica, questo secondo metodo è più adat- 
to a problemi eterogenei con una orga- 
nizzazione meno rìgida. Inoltre non si 
basa su una macchina specifica, ma su 
una costruzione che non ha nulla a che 
vedere con ('hardware e che si chiama 
spazio di ennuple (/!-uple). Questo me- 
todo è incorporato nel linguaggio Linda, 
sviluppato da Nicholas Carriera , da me 
e da altri del nostro gruppo alla Yale 
University. 

Si immagini che lo spazio di ennuple 
sia come un sacco informe pieno di og- 
getti fra loro interagenti, chiamati ennu- 
ple (dove una ennupla è semplicemente 
un insieme ordinato di elementi). Vi so- 
no due tipi di ennuple. Quelle attive 
hanno lo stesso ruolo dei processi nel 
modello a trasferimento di messaggi: 
svolgono il lavoro di calcolo. Esse comu- 
nicano generando, leggendo e consu- 
mando ennuple passive. A differenza 
dei messaggi in un programma a trasfe- 
rimento di messaggi, le ennuple passive 
sono parte integrante del programma a 
spazio di ennuple: contengono le strut- 
ture di dati condivise. 

Le ennuple passive vanno e vengono 
secondo l'esecuzione del programma, 
come avvisi appesi a una bacheca e poi 
staccati di nuovo. Le ennuple attive che 
hanno bisogno di dati possono o leggere 
ennuple passive, o consumarle; quando 
ennuple attive sviluppano risultati, ge- 
nerano nuove ennuple passive (appen- 
dono in bacheca nuovi avvisi). Una en- 
nupla attiva che abbia finito i suoi calcoli 
si trasforma in una ennupla passiva che 
contiene il risultato finale del calcolo. In 
Linda, quindi, un programma parallelo 
è uno sciame di ennuple attive che svol- 
gono calcoli contemporaneamente, cir- 
condate da una nebbia di ennuple passi- 
ve con cui a lungo andare si mescolano. 

Un programma in Linda pei il prodot- 
to di due matrici può immagazzinare le 
righe di una matrice e le colonne dell'al- 
tra in ennuple passive, una riga o colon- 
na per ennupla. Le ennuple attive leggo- 
no una riga, leggono una colonna, ne 
calcolano il prodotto e scaricano il ri- 
sultato in una nuova ennupla passiva , ri- 
petendo più volte tutta la procedura. 
Quanto maggiore è il numero delle en- 
nuple attive, tanto più rapida è l'esecu- 
zione del programma (fino a un limite 
determinato dalle dimensioni dell'hard- 
ware e da quelle del problema). Una so- 
luzione diversa potrebbe sfruttare il fat- 
to che le ennuple attive si trasformano 
in passive quando hanno concluso la loro 
elaborazione; il programma rappresen- 
terebbe la matrice risultante come una 
serie di ennuple attive, ciascuna delle 
quali avrebbe la responsabilità del cal- 
colo di un prodotto riga per colonna. 
Le ennuple attive calcolano simultanea- 
mente ciascuna un prodotto riga per co- 
lonna e poi si trasformano nel risultato. 

Lo spazio di ennuple rende facile la 
suddivisione immediata dei compiti e la 
modifica della forma di un programma 



56 



UNITA DI ELABORAZIONE 

SPECIFICA PER LINDA PRINCIPALE READ («RIGA». 15. ? VALORE) OUT («RIGA». 15. [17. 19. S]) 
* 



(«RIGA-. 15. [17, 19. 5|) 




La creazione di uno spazio di ennuple, in cui ogni ennupla attiva può ac- 
cedere a ogni ennupla passiva, è difficile su un calcolatore parallelo 
con memoria suddivisa Ira le unità di elaborazione. Nella Linda Ma- 
chine, un calcolatore parallelo in costruzione agli AT&T Bell Labora- 
tories per Linda, il linguaggio di programmazione a spazio di ennuple, 
la memoria è distribuita tra molti nodi (sottocalcolatori) distinti, cablati 
insieme in una griglia (a sinistra). Per leggere una ennupla passiva 



contenente, per esempio, la riga di valori identificata come riga 1 S, una 
ennupla attiva invia a tutti i nodi della stessa riga una richiesta di lettura 
(read), con una descrizione parziale della ennupla passiva (a). Può 
darsi che un'altra elaborazione stia ancora creando la ennupla; quando 
questa appare in un nodo, questo invia il proprio segnale lungo la sua 
colonna ihì. Poi il nodo le) in cui si intersecano il segnale di richiesta 
di lettura e quello proveniente dalla ennupla passiva instrada i dati (dì. 



nel corso dell'esecuzione; per questo co- 
stituisce una base promettente per la 
rappresentazione di sistemi complessi, 
del microcosmo caratterizzati da una ra- 
pida evoluzione. Si immagini, a puro ti- 
tolo illustrativo, un programma paralle- 
lo che fornisca un modello in tempo rea- 
le della situazione del traffico aereo degli 
Stati Uniti. Ogni volta che un aereo de- 
colla, viene creata una ennupla passi- 
va che conserva informazioni, costante- 
mente aggiornate, che riflettono le ipo- 
tesi migliori del sistema sullo stato del 
velivolo. In altre ennuple passive vengo- 
no conservati dati sulle condizioni del 
tempo, sulle condizioni degli aeroporti e 
via dicendo. 

Le ennuple attive del programma, che 
elaborano in parallelo, valutano questo 
quadro in continua trasformazione e 
avanzano raccomandazioni per il con- 
trollo del traffico. La capacità del siste- 
ma di spostare il centro della propria at- 
tenzione è cruciale: quando un settore è 
particolarmente impegnato, possono af- 
follarvìsi molte ennuple attive per dare 
una mano. Quando il traffico è leggero, 
le ennuple attive possono rivolgere la 
loro attenzione a compiti secondari, per 
esempio passare in rassegna le ennuple 
passive che sono «atterrate» per prepa- 
rare statistiche. Finora non esiste alcun 
programma così ambizioso scritto in 
Linda, ma stiamo sviluppando program- 
mi di questo tipo, anche se più semplici. 

Come È possibile che macchine logi- 
che così fluide siano ospitate nei rigidi 
circuiti di un calcolatore? Nelle macchi- 
ne parallele in cui tutte le unità di elabo- 
razione sono collegate a una memoria 
comune, le ennuple sono conservate in 
questa memoria condivisa. Le ennuple 
attive sono assegnate alle unità di elabo- 
razione secondo necessità per tenerle oc- 
cupate, e ogni ennupla attiva ha accesso 
a tutte quelle passive. Più difficile è crea- 
re uno spazio di ennuple su una macchi- 
na a «memoria distribuita», cioè con la 
memoria non condivisa, ma completa- 
mente suddivisa fra le unità di elabo- 
razione. Tuttavia esistono sistemi a spa- 



zio di ennuple su macchine di questo ti- 
po, e il gruppo di Sudhir R. Ahuja agli 
AT&T Bell Laboratories sta costruendo 
specificamente per Linda una macchina 
a memoria distribuita. 

Ciascuno dei modelli di software in 
competizione ha i suoi pregi. I compila- 
tori che generano programmi paralleli 
funzionano al meglio per una gamma 
piuttosto ristretta di programmi, ma da- 
to che questa classe è molto significativa 
per il calcolo numerico, i compilatori di 
questo tipo continueranno a essere im- 
portanti. Il trasferimento di messaggi è 
un buon modello quando i programmi si 
possono scomporre facilmente in reti lo- 
giche di pezzi distinti e abbastanza indi- 
pendenti; i suoi avversari sostengono, 
però, che impone uno stile di program- 
mazione ampolloso e innaturale. Linda 
ha in comune con il metodo del trasferi- 
mento di messaggi la tolleranza per 
strutture di programma differenziate e 
non sincronizzate (e può anche miglio- 
rare le prestazioni di quel metodo, sotto 
questo rispetto), e a questo aggiunge la 
naturalezza delle strutture di dati condi- 
vise; tuttavia l'esperienza fatta con que- 
sto linguaggio non è ancora sufficiente a 
dimostrare in generale la potenza del si- 
stema a spazio di ennuple. Il modello 
della macchina connessionistica richiede 
sincronizzazione e un certo grado di 
omogeneità, ma pochi altri modelli logi- 
ci possono fare concorrenza alla sua ca- 
pacità di sfruttare al massimo un paral- 
lelismo massiccio a grana fine. 

La ricerca su modelli di software fun- 
' zionanti continua, ma già il perse- 
guimento dell'obiettivo del parallelismo 
porta gli informatici a porsi domande 
fondamentali sulla natura dei program- 
mi. Il parallelismo considerato fin qui è 
periferico rispetto a! nocciolo dell'elabo- 
razione automatica. È un espediente cui 
si ricorre quando un programma lento e 
di grandi dimensioni ha bisogno di un 
«calcio nel sedere», più che di uno stru- 
mento fondamentale di pensiero. Ma c'è 
un punto di vista migliore. Se ci si arram- 



pica su questa elevazione un po' fuori 
mano e si guarda giù al mondo dell'ela- 
borazione automatica dall'angolazione 
giusta, si trova che un certo tipo di pa- 
rallelismo è centrale e onnipresente in 
tutta la programmazione. 

In un certo senso è impossibile pensa- 
re a una elaborazione che non sia fonda- 
mentalmente parallela. Si pensi, per 
analogia, alla ricetta per un dolce al cioc- 
colato. Spesso t programmi per calcola- 
tore sono paragonati a ricette: gli uni e 
le altre sono pensati per trasformare cer- 
ti elementi in ingresso in qualche tipo di 
uscita. Dì solitosi pensa alle ricette come 
a qualcosa di forte mente sequenziale. La 
ricetta per il dolce, per esempio, potreb- 
be essere espressa in questo modo: (1) 
prepara l'impasto, (2) aggiungi i pezzetti 
di cioccolato. (3) versa il tutto in una 
tortiera e mettila in forno, (4) prepara la 
glassa e (5) stendi la glassa sul dolce. La 
ricetta per il dolce, però, è anche impli- 
citamente (sebbene passivamente) pa- 
rallela. Per eseguirla, deve esistere si- 
multaneamente tutta una serie di ogget- 
ti: una terrina, un frullatore, una tortie- 
ra, un forno, un cuoco. Che esistano una 
terrina, poi un forno e poi un cuoco, 
in successione, senza che le loro esisten- 
ze si sovrappongano, è insoddisfacente 
quanto è insoddisfacente che l'impasto, 
la cottura e il rivestimento di glassa del 
dolce avvengano simultaneamente. 

Sotto questo aspetto, pressoché ogni 
programma è fondamentalmente paral- 
lelo: è costituito da un insieme di pezzi 
(definizioni di funzioni, strutture di dati, 
istruzioni eseguibili, per esempio) che 
debbono esistere in parallelo perché il 
programma possa funzionare. Dove ci 
porta questa osservazione? In un senso 
importante, le elaborazioni da questa 
nuova prospettiva appaiono identiche a 
come erano dal punto di vista tradizio- 
nale. In altre parole, sembra che vi sia 
una simmetria di fondo nella struttura 
delle elaborazioni automatiche. 

Qual è il significato dì questa simme- 
tria? Dal punto di vista tradizionale, la 
maggior parte delle elaborazioni è costi- 



58 




Un linguaggio <li programmazione simmetrico riconosce la simmetria fondamentale nella strut- 
tura delle elaborazioni la). In programma viene eseguito nell'arco di un certo periodo di tempo 
e occupa una certa quantità di «spazio» in un calcolatore. I programmi convenzionati trattano 
un'elaborazione come una .successione temporale di passi, con i passi più piccoli annidati in quelli 
più grandi. Un'elaborazione ha sostanzialmente lo stesso aspetto quando viene osservata dal 
punto di vista spaziale come un insieme di oggetti coesistenti (che possono essere moduli, struttu- 
re di dali o definizioni di procedure). Un programma scritto in un linguaggio simmetrico (61 
specifica un calcolo come una mappa di oggetti, che possono essere semplici come un valore o 
una definizione di variabile, o complessi quanto un grosso sotloprogramma. Quando il program- 
ma viene eseguilo, tulli gli elementi i / J sono valutati in parallelo e danno una nuova mappa di 
risultati (Ri. Un programma semplice scritto in Simmetrie Lisp (ci specifica una succes- 
sione di oggetti, che vengono trasformali al procedere dell'esecuzione del programma stesso. 



tutta da serie di passi, ciascuno definito 
in termini di un'altra serie di passi, cia- 
scuno dei quali è costituito da un'altra 
serie di passi, e via di seguito. Alla scaia 
più grande ogni passo può essere una 
subroutine complessa: queste subrouti- 
ne possono eseguire routine più sempli- 
ci, che possono valutare successioni di 
istruzioni, che alla fine si risolvono in 
operazioni di macchina primitive. Dal 
punto di vista sequenziale, questo fatto 
rende una elaborazione (almeno fino a 
un certo punto) sempre simile a se stes- 
sa. La tessitura dell'elaborazione è so- 
stanzialmente la stessa a qualunque sca- 
la: caratteristiche di grandi dimensioni si 
risolvono in caratteristiche di medie di- 
mensioni, che contengono caratteristi- 
che più pìccole e via di questo passo. 

Dal punto di vista simmetrico, spazia- 
le, i programmi sono costruiti in modo 
sostanzialmente simile. Al livello più ge- 



611 



nerale, spesso sono raccolte di archivi o 
moduli di codice, che probabilmente 
contengono definizioni di subroutine e 
strutture di dati, che a loro volta possono 
contenere dichiarazioni di grana più fi- 
ne, e via di seguito fino ai valori primiti- 
vi, alle variabili e alle espressioni ese- 
guibili (e infine alle singole parole di 
memoria). 1 linguaggi di programmazio- 
ne convenzionali sfruttano ['«autosomi- 
glianza» temporale permettendo ai pro- 
grammatori di trattare come equivalenti 
passi di qualsiasi dimensione: così due 
operazioni complesse o due operazioni 
semplici possono essere messe in se- 
quenza nello stesso modo, e lo stesso 
tipo di ciclo piò eseguire un milione di 
operazioni per iterazione o solamente 
una decina. L'autosomiglianza parallela 
o «spaziale», invece, è nascosta: i pro- 
grammatori sono costretti a definire gli 
oggetti in modo diverso a scale diverse. 



Una nuova classe di linguaggi di pro- 
grammazione offre un ausilio alla strut- 
turazione ad autosomiglianza sia sull'as- 
se spaziale, sia su quello temporale. 
Questi linguaggi «simmetrici», che ven- 
gono sviluppati dal nostro gruppo in col- 
laborazione con Suresh Jagannathan del 
MIT, Thomas London dei Bell Labora- 
tories e altri colleghi, permettono ai pro- 
grammatori di scomporre i calcoli non 
solo in successioni temporali di passi 
progressivamente più semplici, ma an- 
che in successioni spaziali «parallele» di 
oggetti progressivamente più semplici. 
In un programma scritto in un linguaggio 
simmetrico, gli aggetti paralleli, che in 
un programma convenzionale sono na- 
scosti, sono disposti ordinatamente nello 
«spazio» all'interno del calcolatore. So- 
no sistemati in una configurazione spa- 
ziale ben definita (sappiamo dove è di- 
sposto ciascun oggetto, proprio come 
sappiamo quando avvengono i singoli 
passi di una serie temporale) ed entro 
ogni oggetto possono essere annidati al- 
tri oggetti, sempre in una configurazione 
ben definita. Gli oggetti possono far ri- 
ferimento l'uno all'altro o per posizione 
o per nome. Così un oggetto che contie- 
ne il numero 3 può essere chiamato*; il 
contenuto di un altro oggetto può essere 
dato come .r +5 o, magari, come «il 
contenuto del diciassettesimo oggetto da 
sinistra» + 5. I! testo di un program- 
ma scritto in un linguaggio simmetrico, 
quindi, descrive il contenuto di ciascun 
oggetto e la sua posizione su una mappa. 

Quando un programma di questo tipo 
viene messo in esecuzione, tutte le legio- 
ni sono valutate simultaneamente e il ri- 
sultato è una nuova mappa, corrispon- 
dente alla mappa originale di espressioni 
non calcolate , che mostra lo stato finale 
di ciascun oggetto. Il programma sim- 
metrico in corso di esecuzione assomi- 
glia a un negativo fotografico durante il 
procedimento di sviluppo. 

Quello che apprendiamo sulla costru- 
zione dì macchine logiche parallele alla 
fine potrà modificare le nostre idee sia 
sulla programmazione, sia sui limiti del 
calcolo automatico. I programmi paral- 
leli sono (virtualmente) molto più po- 
tenti dei vecchi programmi sequenziali. 
Dove ci porta tutto questo? Il paralleli- 
smo trasformerà molti domini di attività, 
dalla grafica ai programmi di controllo e 
supervisione in tempo reale, all'intelli- 
genza artificiale e ancora oltre. La cosa 
più importante è che forse il parallelismo 
ci permetterà di costruire modelli per l'a- 
nalisi dei fenomeni naturali a un livello 
di gran lunga più raffinato di quello che 
possiamo permetterci oggi. Martin H. 
Schultz della Yale University descrive il 
fine ultimo della ricerca sul parallelismo 
come «l'eliminazione della scienza spe- 
rimentale». L'affermazione di Schultz 
non va presa alla lettera (abbiamo co- 
munque bisogno di una infarinatura di 
dati reali per poter mettere a punto i 
nostri modelli al calcolatore), ma do- 
vrebbe comunque farci pensare. 






Immagazzinamento dati 
per l'elaborazione avanzata 

Gli attuali mezzi di registrazione magnetica potranno, entro cinque anni, 
raddoppiare la velocità operativa e quintuplicare la capacità di memoria, 
ma i sistemi magneto-ottici forse consentiranno progressi ancora maggiori 

di Mark H. Kryder 



Il fatto che la valle di Santa Clara, in 
California, considerata il centro 
dell'industria elettronica statuni- 
tense, sia stata soprannominata «Silicon 
Valley» (Valle del silicio) infastidisce i 
costruttori di dispositivi magnetici per 
l'immagazzinamento dati. Fn fin dei con- 
ti le ditte situate nella valle traggono pro- 
fitto più dai dispositivi magnetici che da 
quelli a semiconduttore. Un sopranno- 
me più appropriato, secondo i fabbri- 
canti, sarebbe «Iran Oxide Valley» (Val- 
le dell'ossido di ferro), in onore del più 
comune tra i materiali con cui si costrui- 
scono i dispositivi per la registrazione 
magnetica. 

Benché di tono scherzoso, questa irri- 
tazione ha un certo fondamento: la tec- 
nologia delle memorie magnetiche, che 
produce i comuni nastri e dischetti fles- 
sibili e le più raffinate unità a dischi rigi- 
di, è per ì calcolatori odierni cruciale 
quanto la tecnologia dei semiconduttori. 
In effetti i più potenti sistemi informatici 
del prossimo futuro saranno utili solo se 
potranno accedere a quantità più elevate 
di dati e in tempi più brevi di oggi. Quin- 
di la maggior velocità di calcolo consen- 
tita dai progressi dei dispositivi a semi- 
conduttore e dal modo in cui questi di- 
spositivi sono collegati e programmati 
dev'essere accompagnata da un paralle- 
lo aumento di capacità e prestazioni dei 
dispositivi di memoria. 

I dispositivi magnetici si prestano alla 
registrazione permanente di grandi mas- 
se di dati poiché offrono, a costo più bas- 



so per bit registrato, una capacità di me- 
moria molto più grande dei dispositivi a 
semiconduttore. Un disco rigido contie- 
ne di norma 800 000 caratteri (l'equiva- 
lente di circa 400 pagine dattiloscritte) 
per centimetro quadrato di superficie re- 
gistrabile; alcuni dei dispositivi multidi- 
sco più grandi possono contenere più di 
cinque miliardi di caratteri. I dati posso- 
no essere poi reperiti in 15 millesimi di 
secondo ed estratti a una velocità di tre 
milioni di caratteri al secondo. Inoltre, 
poiché certi dischi e tutti i nastri possono 
essere estratti e reinseriti facilmente sen- 
za che i dati in essi registrati vadano di- 
strutti, essi forniscono una riserva di in- 
formazioni virtualmente illimitata. 

Benché le capacità di memoria e di 
reperimento offerte dalla tecnologia del- 
le memorie magnetiche siano le caratte- 
ristiche che impressionano di più il pub- 
blico, non si deve dimenticare che esse 
sono state rese possibili da una raffinata 
tecnica ingegneristica. Un disco rigido 
consiste di un piatto levigatissimo. rive- 
stito di un mezzo per la registrazione ma- 
gnetica, che ruota a 3600 giri al minuto. 
Una testina di registrazione microscopi- 
ca, che letteralmente vola su un cuscino 
d'aria dello spessore di 0,25 micrometri. 
sfiora la superficie del piatto a una velo- 
cità relativa di circa 160 chilometri all'o- 
ra seguendo senza deviazioni una pista 
circolare larga appena 0,125 micrometri. 
Spostandosi rapidamente da una pista 
all'altra, la testina subisce accelerazio- 
ni molto maggiori dell'accelerazione di 



Due testine a pellicola sottile di tipo diverso sono conglobate In un unico dispositivo microscopico 
costruito dalla Control Data Corporation. L'elemento marrone ad avvolgimento, come la bobina 
di una normale testina induttiva, conduce una corrente che genera nel traferro un flusso ma- 
gnetico con cui si possono «scrìvere» i dati sul mezzo di registrazione. I dati sono letti da una 
sottostante testina magnetoresistiva. che rileva i campi magnetici comi- variazioni di resistenza, 
essendo sensibile ai campi che si trovano proprio sopra la pista. Poiché l'elemento di lettura può 
essere reso più stretto della pista, è meno soggetto all'interferenza delle piste adiacenti. 



gravità terrestre, eppure riesce a trovare 
la pista giusta e a collocarvisi sopra senza 
errori. Se la testina dovesse schiantarsi 
contro il mezzo a questa velocità, il disco 
e tutta l'informazione in esso contenuta 
andrebbero distrutti. Ciò nonostante, 
questi dispositivi dì norma funzionano 
senza alcun guasto per periodi di oltre 
dieci anni. 

Per quanto straordinarie siano le ca- 
ratteristiche di questi dispositivi magne- 
tici di memoria, per il futuro si prevedo- 
no prestazioni ancora migliori. Con l'uso 
di nuovi materiali magnetici e di testine 
di registrazione più perfezionate, entro 
cinque anni la densità di registrazione 
salirà a cinque volte quella dei prodotti 
odierni. La maggior parte dei dispositi- 
vi continuerà a «scrivere» (immagazzi- 
nare) e a «leggere» (estrarre) i dati me- 
diante testine elettromagnetiche simili a 
quelle dei registratori audio, ma saranno 
introdotti anche sistemi che sfruttano il 
laser per leggere, scrivere e cancellare 
l'informazione su sottili pellicole magne- 
tiche, sistemi che s'impadroniranno di 
una fetta importante del mercato delle 
memorie. Questa tecnica di registrazio- 
ne magnelo-ottica può consentire densi- 
tà anche più elevate e potrà sostituire la 
registrazione magnetica tradizionale in 
molte applicazioni. 

Sta che si tratti di nastri o di dischi, la 
registrazione magnetica di dati bina- 
ri consiste sostanzialmente nell'impri- 
mere su un mezzo una configurazione di 
magnetizzazione. A questo fine ci si ser- 
ve di una testina di registrazione indut- 
tiva, di solito realizzata con alcune spire 
di filo avvolte intorno a un nucleo toroi- 
dale facilmente magnetizzabile. Se il filo 
è percorso da una corrente elettrica, nel 
nucleo viene generato un flusso magne- 
tico: invertendo la corrente, s'inveite 
anche il verso del flusso magnetico. Poi- 
ché attraversando il traferro del nucleo 



65 



toroidale le linee del flusso magnetico si 
allargano, è possibile sfruttarle per ma- 
gnetizzare un mezzo collocato in prossi- 
mità del traferro. Il verso della magne- 
tizzazione dipende da quello delle linee 
di flusso magnetico che attraversano il 
traferro. 

Quindi spostando il mezzo sotto il tra- 
ferro, è possìbile imprimervi una confi- 
gurazione di magnetizzazione: basta in- 
vertire ripetutamente il verso della cor- 



rente nella testina di registrazione. Poi- 
ché i dati generati dal calcolatore sono 
memorizzati sotto forma di una succes- 
sione di cifre binarie, la configurazione 
delle inversioni della corrente (e quindi 
la configurazione delle inversioni della 
magnetizzazione) corrisponde alla suc- 
cessione di cifre binarie (0 e 1 ) che rap- 
presentano i dati. 

Per leggere i dati codificati nella con- 
figurazione della magnetizzazione del 



CORRENTE 
ELETTRICA 




DIREZIONE 

DI MOVIMENTO 

DEL MEZZO MAGNETICO 






MAGNETIZZAZIONE 



SUBSTRATO DEL DISCO DEL NASTRO 




REGIONE 
DI TRANSIZIONE 



REGIONE MAGNETIZZAZIONE 

MAGNETIZZATA 




La registrazione magnetica dei dati si effettua magnetizzando le regioni di un mezzo deposto su 
un substrato mobile costituito da disco o nastro. Le regioni vengono magnetizzate in un verso o 
nell'altro da una testina elettromagnetica costituita da un nucleo facilmente magnetizzabile 
intorno al quale è avvolto un filo (a). Quando nell'ai volgimento passa una corrente, nel nucleo 
si instaura un flusso magnetico. Le lince di flusso, attraversando il traferro del nucleo, si 
allargano e magnetizzano il mezzo sottostante. Se la corrente viene invertita, s'invertono anche 
il flusso e il verso di magnetizzazione del mezzo. I dati così registrati possono essere «letti» perché 
i campi magnetici generati dalle regioni magnetizzate si estendono fuori della superficie del 
mezzo. Via vìa che il mezzo si muove, il nucleo della testina è attraversato da un flusso magnetico 
variabile, che genera una corrente indotta (bì. Esaminando la configurazione delle regioni 
magnetizzale e i loro campi magnetici (e), si vede che in effetti questi campi si generano e si 
annullano fra una regione magnetizzata e l'altra, nelle regioni di transizione. Poiché questi campi 
si oppongono alla magnetizzazione del mezzo, sono definiti campi di de magnetizzazione. 



mezzo, si sfruttano i campi magnetici ge- 
nerati da ciascuna regione magnetizzata. 
Questi campi in effetti si oppongono alla 
magnetizzazione della regione (si veda 
l'illustrazione in questa pagina) e perciò 
si chiamano campi di de magnetizzazio- 
ne. Poiché le linee de! campo di dema- 
gnetizzazione si estendono un po' oltre 
la superficie del mezzo, esse possono in- 
tersecare la testina e indurre nel nucleo 
un flusso magnetico (purché la testina sia 
abbastanza vicina al mezzo). Quindi la 
lettura si effettua sostanzialmente inver- 
tendo il procedimento di registrazione: 
quando la testina passa accanto a una 
regione di transizione, cioè una regione 
dove la magnetizzazione del mezzo cam- 
bia verso, la corrispondente variazione 
del flusso che attraversa il nucleo viene 
registrata sotto forma di una corrente 
elettrica indotta nel filo avvolto intorno 
al nucleo. Queste variazioni della cor- 
rente elettrica indotta possono essere ri- 
levate e interpretate come dati binari. 

Di solito su un disco i dati sono regi- 
strati in piste circolari concentriche. In 
certa misura il numero di bit che si pos- 
sono registrare lungo una qualunque di 
queste piste (la cosiddetta densità linea- 
re di bit) può essere accresciuto renden- 
do più piccole le regioni di transizione, 
il che consente di inserire nella pista più 
regioni magnetizzate. In pratica, tutta- 
via, c'è una limitazione inferiore alle di- 
mensioni di una regione di transizione. 
Le regioni magnetizzate di una pista pos- 
sono essere viste come una serie di ma- 
gneti a barra adiacenti. Una regione di 
transizione separa uno dei poli (nord e 
sud) di una regione magnetizzata dal po- 
lo omonimo della regione contigua. Per- 
tanto, se la regione di transizione è resa 
più piccola, i poli magnetici omonimi 
debbono avvicinarsi, al che si oppone la 
forza di repulsione che si esercita fra di 
essi. Inoltre se le regioni magnetizzate 
sono troppo piccole rispetto alle dimen- 
sioni delle regioni di transizione, i campi 
di demagnetizzazione possono essere 
tanto intensi da invertire addirittura la 
magnetizzazione della regione. Per usci- 
re da questo dilemma si deve far in modo 
che il mezzo abbia una coercitività ele- 
vata: la eoe rei ti vita è una misura dell'in- 
tensità del campo magnetico che si deve 
applicare per invertire il verso di magne- 
tizzazione del mezzo. 

Un altro sistema per aumentare la 
densità lineare di bit in una pista consiste 
nel rendere più sottile lo strato di mate- 
riale magnetico. Poiché i campi di dema- 
gnetizzazione hanno origine nelle regio- 
ni di transizione, se queste sono rese più 
sottili i campi s'indeboliscono. Tuttavia 
se il materiale è troppo sottile, i campi 
di demagnetizzazione che si estendono 
al dì là del mezzo sono troppo deboli per 
essere rilevati e ciò rende impossibile la 
lettura dei dati codificati tramite la con- 
figurazione magnetica del mezzo. 

Anche qui, per rendere meno grave il 
problema, bisogna scegliere in modo 
oculato il materiale magnetico. Se un 



Mi 



materiale può essere fortemente magne- 
tizzato, basta depositarne sul substrato 
una quantità relativamente piccola. E 
quindi possibile avere uno strato di ma- 
teriale più sottile pur mantenendo la 
stessa ampiezza del segnale di lettura 
nella testina. I materiali fortemente ma- 
gnetici sono anche detti «a magnetizza- 
zione elevata». Quindi, per un mezzo 
magnetico, una magnetizzazione elevata 
e una forte coercitività sono proprietà 
desiderabili se non si vuole che il segnale 
vada perduto quando viene aumentata 
la densità lineare di bit. 

Particelle aghiformi di ossido di ferro 
{nella forma chiamata ossido di ferro 
gamma), immobilizzate in una matrice 
di legante, manifestano le proprietà de- 
siderate di elevata magnetizzazione e 
forte coercitività; pertanto questo mate- 
riale composito è divenuto il mezzo di 
registrazione più diffuso. Per aumentare 
ulteriormente la coercitività dell'ossido 



di ferro, le particelle sono spesso rivesti- 
te di cobalto. Un altro mezzo dotato di 
alta coercitività è costituito da particelle 
di biossido di cromo in una matrice di 
legante. Le particelle di biossido di cro- 
mo hanno una coercitività vicina a quella 
delle particelle di ossido di ferro rivestite 
di cobalto, ma hanno una forma più re- 
golare. Si ritiene che questa loro unifor- 
mità faciliti una dispersione omogenea 
nel legante, il che consente di ottenere 
un mezzo di registrazione migliore. 

Per la registrazione avanzata ad alta 
densità, si stanno sperimentando parti- 
celle di metallo puro, per esempio ferro, 
dato che esse presentano una coercitività 
e una magnetizzazione ancora più eleva- 
te delle particelle dei mezzi magnetici 
ordinari. Le particelle di ferro puro sono 
però così piccole e magnetiche che è dif- 
ficile separarle l'una dall'altra per poter- 
le disperdere uniformemente nel legan- 
te. Inoltre il ferro puro si ossida facil- 
mente: anzi le particelle di ferro molto 



+ 



LU 






te 
9 



--pa-^fi 

/ fi^ii \ 

A 4-1 4-1 U 

T Jd T fa 



- -e 



-INTENSITÀ DEL CAMPO MAGNETICO APPLICATO - 



La magnetizzazione e ia coercitività delle particelle di ossido di ferro Un rosso), di biossido di 
cromo (in litui e di una lega a pellicola sottile (in verde) corrispondono rispettivamente all'altezza 
e alla larghezza del ciclo dì isteresi (la curva chiusa che rappresenta la magnetizzazione di un 
mezzo in funzione del campo magnetico applicato). Il ciclo di isteresi mostra che, all'aumentare 
dell'intensità del campo, anche la magnetizzazione passa da zero (a) a un valore massimo (6). 
Se poi il campo viene annullato, la magnetizzazione non torna a zero (e); essa può essere annullata 
solo se il campo magnetico viene invertito e portato a un valore noto come coercitività del 
materiale uli. La coercitività è una misura della resistenza che il materiale oppone alle inversioni 
di magnetizzazione. Per immagazzinare dati con densità elevate, un materiale deve sopportare 
una magnetizzazione elevata e possedere una forte coercitività; in altri termini, il ciclo d'isteresi 
del materiale dev'essere alto e largo. In base a ciò i materiali migliori per la registrazione ad alta 
densità sono le leghe a pellicola sottile, seguite nell'ordine da biossido di cromo e ossido di ferro. 



minute, quando sono esposte all'aria, 
bruciano. Di conseguenza, durante la 
fabbricazione, queste particelle debbo- 
no essere trattate con cura eccezionale. 
Inoltre il legante non solo deve far ade- 
rire le particelle al substrato, ma deve 
anche fungere da barriera contro il va- 
pore acqueo e l'ossigeno. Infine, sotto il 
profilo meccanico, il ferro puro è più te- 
nero dell'ossido di ferro e quindi si logo- 
ra più facilmente. 

Per quanto non ci sìa dubbio che ì 
mezzi compositi particellari continue- 
ranno a essere impiegati nei dispositivi 
di memoria magnetici, le nuove sottili 
pellicole di leghe metalliche contenenti 
soprattutto nichel e cobalto hanno avuto 
notevoli ripercussioni sul mercato dei di- 
spositivi avanzati di memoria magnetica. 
I mezzi a pellicola sottile non sono par- 
ticellari, bensì policristallini: sono fatti 
di grani, minuscoli cristalli di materiale 
magnetico. In effetti i grani si compor- 
tano come se fossero minuscole particel- 
le magnetiche, ma sono impaccati con 
densità molto maggiore delle particelle 
contenute nei mezzi di registrazione or- 
dinari. Si può quindi dotare i mezzi a 
pellicola sottile di una coercitività mag- 
giore di quelli particellari e conferire lo- 
ro una magnetizzazione più elevata. 

I mezzi a pellicola sottile vengono per 
lo più depositati sul substrato del disco 
mediante un processo di placcatura. Il 
disco viene immerso in un bagno chimi- 
co contenente svariate sostanze, fra le 
quali il materiale che costituirà il mezzo. 
La composizione, la temperatura e l'agi- 
tazione del bagno influiscono sulla com- 
posione e sulle proprietà finali de! mezzo 
placcato. 

Un altro processo usato per deposita- 
re sul substrato un mezzo di registrazio- 
ne a pellicola sottile è la deposizione per 
spruzza me n to ca tod ico , eh e si eff et t u a ì n 
una camera a bassa pressione contenen- 
te un gas inerte, per esempio argo. Nella 
camera si trovano un elettrodo negativo, 
il catodo, e un elettrodo avente un po- 
tenziale identico o prossimo a quello di 
terra, l'anodo. Il materiale che deve es- 
sere spruzzato sul substrato viene posto 
in contatto elettrico con il catodo. Il sub- 
strato (in genere un disco) è tenuto di 
solito a un potenziale prossimo allo zero 
ed è posto molto vicino al materiale ca- 
rico. Un filamento caldo ionizza l'argo 
contenuto nella camera di spruzzamento 
e l'elevato potenziale negativo (di solito 
1000 volt o più) del catodo e del mate- 
riale a contatto con esso attrae gli ioni 
positivi dell'argo. Questi ultimi urtano il 
materiale con un'energia così elevata da 
liberarne atomi o grappoli di atomi, che 
si raccolgono sul vicino substrato. 

Per il momento le pellicole sottili plac- 
cate sono più diffuse di quelle depositate 
per spruzzamento. Ciò è in parte dovuto 
al fatto che i sistemi industriali di spruz- 
zamento catodico sono più costosi dei 
sistemi di placcatura. I mezzi ottenuti 
per spruzzamento potrebbero tuttavia 
alla lunga sostituire quelli placcati, poi- 



68 



che è più facile aggiungere elementi in 
traccia che, come il cromo o il renio, 
accrescono la coercitività del mezzo. 

Oltre che scegliendo accuratamente le 
proprietà magnetiche del mezzo, le pre- 
stazioni dei sistemi di memoria possono 
essere migliorate anche modificando la 
struttura della testina di lettura e scrittu- 
ra. In particolare, collocando la testina 
più vicina al mezzo, si potrebbero regi- 
strare segnali magnetici più intensi sia 
nel mezzo, sia nella testina. Segnali più 
intensi consentono a loro volta di far 
funzionare il dispositivo più rapidamen- 
te e senza errori. Tuttavia in pratica è 
difficilissimo ridurre la distanza della te- 
stina nei dispositivi a dischi magnetici. In 
effetti nei dischi rìgidi lo spazio fra la 
testina e il mezzo è già oggi così esiguo 
che la minima contaminazione dovuta a 
polvere, impronte digitali o particelle di 
fumo provocherebbe la rottura della te- 
stina. (Per questo motivo i dischi rigidi 
sono fatti in modo da non poter essere 
estratti dai loro contenitori ermetici.) 

Anche nei registratori a nastro e nelle 
unità a dischetti flessibili, che sono di 
norma considerate come mezzi di regi- 
strazione «a contatto», vi è uno spazio 
libero fra la testina di registrazione e il 
mezzo magnetico. Sul mezzo viene spes- 
so applicato un rivestimento, per esem- 
pio un lubrificante, per evitare un'usura 
eccessiva del mezzo e della testina. Inol- 
tre la scabrosità della superficie del mez- 
zo e la sua velocità relativa fanno sì che 
in realtà la testina «rimbalzi» sul mezzo, 
con il quale viene a contatto solo di 



quando in quando. In linea di principio, 
nei dispositivi di registrazione a contatto 
lo spazio di separazione potrebbe essere 
ridotto, applicando un rivestimento di 
lubrificante più sottile, rendendo il mez- 
zo più liscio e applicando una pressione 
più elevata fra mezzo e testina: ma questi 
interventi provocherebbero una maggio- 
re usura di entrambi. 

Un'altra modifica che si può apporta- 
re al disegno della testina per accrescere 
la densità lineare dei bit è restringere il 
traferro del nucleo. Riducendo la lar- 
ghezza del traferro si diminuisce di con- 
seguenza l'ampiezza delle regioni ma- 
gnetizzate del mezzo e ciò consente di 
registrarne un numero maggiore su ogni 
pista. La maggior parte delle testine per 
la registrazione magnetica ha un nucleo 
di ferrite, un materiale che contiene os- 
sidi di ferro e altri metalli, come manga- 
nese, nichel e zinco. 

Negli ultimi cinque anni l'ampiezza 
del traferro nelle testine di ferrite si è 
ridotta da 2,5 micrometri a 0.5 microme- 
tri. Inoltre si è riusciti di recente a fab- 
bricare testine di registrazione avanzate 
su substrati ceramici ricorrendo a tecni- 
che che derivano dall'esperienza tecno- 
logica della fabbricazione dei dispositivi 
microscopici a semiconduttori. Queste 
testine miniaturizzate, fatte di una sotti- 
le pellicola di Permalloy (una lega di ni- 
chel e di ferro), hanno oggi traferri dello 
spessore di circa 0,5 micrometri; nelle 
future testine a pellicole sottili i traferri 
potrebbero avere una larghezza pari alla 
metà di questo valore. 



Altre modifiche nella struttura delle te- 
L stine, anche se non accrescono la 
densità di bit per pista, possono tuttavia 
consentire una maggiore densità com- 
plessiva di registrazione. La modifica più 
ovvia sarebbe una riduzione della lar- 
ghezza della testina, poiché è questa che 
determina la larghezza della pista. Re- 
stringendo le piste, se ne possono inseri- 
re di più sul disco, ma diventa anche più 
difficile mantenere correttamente la te- 
stina sulla pista ed evitare le interferenze 
dei segnali magnetici delle piste adiacen- 
ti. Quindi, benché ridurre la larghezza 
della pista sia l'espediente più praticabi- 
le per ottenere una maggiore densità di 
registrazione superficiale (non più linea- 
re), questa riduzione sarà possibile solo 
quando saranno costruite testine e mec- 
canismi di tracciamento delle piste più 
complessi. La tendenza verso testine di 
struttura più complessa accelererà il pas- 
saggio dalle testine di ferrite a quelle a 
pellicola sottile. 

Un passo in questa direzione è stato 
compiuto di recente dalla IBM Corpora- 
tion e dalla Control Data Corporation, 
con Tintroduzione di un dispositivo che 
combina una normale testina induttiva 
per la scrittura con una testina di lettura 
di nuovo genere: una testina magnetore- 
sistiva. Un materiale magnetoresistivo 
modifica la propria resistività elettrica in 
funzione della magnetizzazione. Pertan- 
to una variazione della magnetizzazione 
del mezzo può modificare la resistenza 
di una sovrastante testina fatta di un ma- 
teriale del genere. Se alla testina viene 




ti mezzo magnetico più diffuso per la registrazione e costituito da par- 
ticelle magnetiche immerse in un legante. ! mezzi compositi particella™ 
più diffusi contengono la forma gamma dell'ossido di ferro la sinistrai. 
Alcuni costruttori di materiali magnetici ritengono che le particelle di 
biossido di cromo ial centro) possano essere distribuite nel legante in 
modo più uniforme, a causa della loro forma più regolare. Questi mate- 



riali manifestano entrambi una direzione di magnetizzazione preferen- 
ziale lungo l'asse delle particelle. Le particelle di ferrite al bario (a 
destra) hanno forma di lamine esagonali. Siccome la direzione di ma- 
gnetizzazione preferenziale delle particelle è ortogonale alla lamina, 
questo materiale si presta a essere utilizzato nei mezzi di registrazio- 
ne perpendicolare (sì veda l'illustrazione nella pagina a fronte}. 



70 



applicata una corrente costante, le varia- 
zioni di resistenza possono essere facil- 
mente rilevate sotto forma di variazioni 
di tensione. Le testine magnetoresistive 
possiedono una sensibilità ai flusso ma- 
gnetico emesso dal mezzo almeno di un 
ordine di grandezza superiore rispetto 
alle testine induttive. Inoltre il loro se- 
gnale d'uscita dipende dal flusso totale e 
non dal tasso di variazione del flusso, 
come accade per le testine induttive. 
Mentre il segnale elettrico di una testina 
induttiva dipende dalla velocità con cui 
il mezzo le scorre accanto, il segnale di 
una testina magne to resistiva è indipen- 
dente dalla velocità del mezzo rispetto 
alla testina. Quindi le testine magneto- 
resistive sono da preferirsi soprattutto 
quando la velocità relativa del mezzo sia 
bassa o variabile, come accade normal- 
mente nei dispositivi a nastro. 

Dato che una testina ma gneto resistiva 
non può generare un campo magnetico 
esterno, essa può solo leggere i dati. Di 
conseguenza una testina magnetoresisti- 
va dev'essere sempre accoppiata a una 
testina induttiva, in grado di scrivere. 
Non è tuttavia necessario che la testina 
magnetoresistiva di lettura costituisca 
una struttura separata. Poiché le testine 
magnetoresistive sono sottilissime (fra 
0,03 e 0,05 micrometri), le si può inserire 
nel traferro di una testina di registrazio- 
ne di ferrite o addirittura di una testina 
induttiva a pellicola sottile. Combinan- 
do una testina dì lettura magnetoresisti- 
va con una testina di scrittura induttiva, 
non solo si migliora la sensibilità dì let- 
tura, ma si risolvono anche i problemi di 
interferenza tra le piste durante la lettu- 
ra, poiché la larghezza dell'elemento di 
lettura può essere resa più piccola della 
larghezza della pista. 

Quanto ho esposto finora vale per la 
registrazione magnetica longitudi- 
nale, cioè per la lettura e la scrittura dì 
dati registrati sotto forma dì variazioni 
della magnetizzazione parallela al piano 
del disco o del nastro. Sì può anche fare 
in modo, per certi mezzi, che la direzio- 
ne di magnetizzazione preferenziale sia 
perpendicolare al piano del mezzo. 1 ma- 
teriali di registrazione perpendicolare 
più diffusi sono leghe di cobalto e di cro- 
mo depositate per spruzzamene catodi- 
co. In questi mezzi policristallini tutti i 
grani tendono a orientarsi in modo che la 
direzione di magnetizzazione preferen- 
ziale sia complessivamente perpendico- 
lare al piano della pellicola. Purtroppo 
queste pellicole sottili metalliche non 
hanno buona resistenza all'usura. Que- 
sto è il motivo per cui si sta sperimentan- 
do come mezzo per la registrazione per- 
pendicolare anche la ferrite al bario, 
un materiale composito particellare. Le 
particelle appiattite di ferrite al bario 
possono essere mescolate a particelle re- 
sistentissime all'usura e a lubrificanti, 
per minimizzare l'usura del mezzo. 

Per la registrazione perpendicolare 
sono state proposte testine di vario tipo. 



POLO 

--PRINCIPALE 



DIREZIONE 

Dì MOVIMENTO 

DEL MEZZO MAGNETICO 



MAGNETIZZAZIONE 


l 




1 




i 




! 


li 


PERPENDICOLARE 








SUBSTRATO 



T 
"7 



T 



-AVVOLGIMENTO 



POLO 
AUSILIARIO 



I I ' 

La registrazione perpendicolare viene effettuata mediante due poli disposti sulle facce opposte 
del mezzo di registrazione. Quando nel filo avvolto intorno al polo ausiliario passa corrente, nel 
polo viene indotto un flusso magnetico. Questo campo magnetico non e abbastanza intenso da 
magnetizzare il mezzo, ma può magnetizzare il polo principale situato dall'altra parte del mezzo. 
Il mezzo viene poi magnetizzato perpendicolarmente alla direzione del suo moto dai campi 
combinati dei due poli. Poiché' in questo sistema di registrazione te regioni magnetizzate non 
sono accostate per le estremità, le regioni dì transizione sono più strette di quelle dei normali 
dispositivi di registrazione e ciò comporta che in una pista trovino posto più regioni magnetizzate. 



Una di queste prevede la realizzazione 
di due poli separati: un grosso polo au- 
siliario collocato sotto il substrato del 
mezzo e uno stretto polo principale si- 
stemato direttamente sopra il mezzo, 
giusto di rimpetto al polo ausiliario. At- 
torno a quest'ultimo è avvolto un filo 
che, quando è attraversato da corrente 
elettrica, genera nel polo un flusso ma- 
gnetico. Il campo magnetico del polo au- 
siliario non è in grado da solo di magne- 
tizzare il mezzo, ma si limita a magnetiz- 
zare il polo principale situato dall'altra 
parte del mezzo. I campi magnetici com- 
binati dei due poli sono comunque ab- 
bastanza forti da magnetizzare il mezzo 
perpendicolarmente al suo piano; le re- 
gioni magnetizzate del mezzo sono, per 
così dire, «ammassate in piedi». La con- 
figurazione codificata di queste zone 
magnetizzate perpendicolarmente può 
poi essere letta dalla testina bipolare più 
o meno come una configurazione di zone 
a magnetizzazione longitudinale viene 
letta da una testina ordinaria. 1 cambi di 
direzione del campo magnetico del mez- 
zo inducono nel polo ausiliario un flusso 
magnetico variabile. Questo flusso va- 
riabile viene poi rilevata dalle inversioni 
di corrente nell'avvolgimento del polo. 

~p\ato che nei mezzi a registrazione 
U perpendicolare, le regioni con ma- 
gnetizzazione opposta non sono disposte 
con le estremità accostate (come nel caso 



dei mezzi a registrazione longitudinale), 
con questi materiali i campi di de magne- 
tizzazione tendono a diventare più debo- 
li al crescere della densità lineare dei bit. 
Un altro vantaggio della registrazione 
perpendicolare, derivante anch'esso dal- 
la diversa disposizione delle regioni ma- 
gnetizzate, è che il mezzo può essere re- 
so più spesso e quindi più resistente ai 
difetti senza dover estendere le regioni 
di transizione. Inoltre, dato che i campi 
di demagnetizzazione sono più deboli, 
l'ampiezza e la spaziatura delle regioni 
magnetizzate sono meno variabili, con il 
vantaggio di diminuire le possibilità di 
errori di lettura e scrittura. 

Malgrado i suoi pregi intrinseci, la re- 
gistrazione perpendicolare non è stata 
ancora adottata in alcun prodotto in 
commercio. Ciò è in parte dovuto al fat- 
to che. per sfruttare la densità lineare di 
bit potenzialmente superiore dei mezzi a 
registrazione perpendicolare, sarà pro- 
babilmente necessario portare il polo 
principale più vicino al mezzo di quanto 
non lo sia oggi nelle testine di registra- 
zione longitudinale. Questa, come si è 
già detto, è però la più grossa difficoltà 
pe r i I con segu ime n to d i m aggi ori densità 
lineari di bit con qualunque tecnica di 
registrazione magnetica dei dati. 

L'ostacolo principale allo sfruttamen- 
to commerciale della registrazione per- 
pendicolare è l'impossibilità di introdur- 
la gradualmente, adattando una alla vol- 



71 



ta le parti del sistema di memoria. Non 
solo dev'essere cambiato il mezzo, ma si 
devono sostituire anche la testina e l'e- 
lettronica per l'elaborazione del segnale. 
Sebbene parecchie ditte abbiano dedica- 
to dieci anni di attive ricerche e studi alla 
registrazione perpendicolare, l'industria 
delle memorie ha continuato a utilizzare 
la tecnologia della registrazione longitu- 
dinale. Poiché sembra possibile ottenere 
densità di bit più elevate migliorando la 
tecnologia già affermata (soprattutto at- 
traverso i progressi dei mezzi a pellicola 
sottile), alle ditte mancano incentivi a 



fare gli investimenti necessari per cam- 
biare la tecnologia di registrazione. 

È prevedibile che la registrazione lon- 
gitudinale continuerà a dominare, alme- 
no nelle unità a dischi rigidi. D'altra par- 
te, poiché è improbabile che t mezzi a 
pellicola sottile riescano ad affrontare le 
abrasioni che subirebbero nei registrato- 
ri a nastro e nelle unità per dischetti fles- 
sibili, dove le testine sono a contatto con 
il mezzo , la registrazione perpendicolare 
potrà essere vantaggiosamente introdot- 
ta a patto che si arrivi a trovare un mezzo 
capace di resistere all'usura. 



T rapi di progressi dei d i sposi t i v i d i m e - 
-*- moria magnetici e le grandi dimen- 
sioni dell'industria che ìi costruisce im- 
pediranno di fatto a qualunque altra tec- 
nologia di immagazzinamento dati di as- 
sicurarsi una porzione significativa del 
mercato per i prossimi cinque anni. Tut- 
tavia altre tecnologie potrebbero diven- 
tare concorrenziali. Per esempio, la tec- 
nologia della registrazione ottica, che 
elimina de! tutto i mezzi magnetici, con- 
sente, rispetto alla tecnologia della regi- 
strazione magnetica, una densità lineare 
di bit superiore e un costo per bit regi- 



DIODO A LASER 







I dispositivi magneto-ottici sfruttano un fascio laser per leggere e scrì- 
vere. Per scrivere, il laser riscalda un punto su un mezzo ta cui coerci- 
tività decresce al crescere della temperatura, consentendo a un debole 
campo magnetico applicato di magnetizzare facilmente il punto riscal- 
dato. Per leggere i dati, il fascio laser viene emesso con un'intensità 



inferiore e quindi polarizzato. Siccome il piano di polarizzazione viene 
ruotato quando un fascio di luce polarizzata viene riflesso da un mezzo 
magnetizzato, un secondo filtro polarizzatore (detto analizzatore) può 
trasformare le variazioni di polarizzazione del fascio riflesso in varia- 
rioni di intensità luminosa registrabili da parte di un foto rivelatore. 



strato inferiore. Tuttavia le unità ottiche 
attuali sono notevolmente inferiori alle 
unità magnetiche per quanto riguarda la 
velocità di registrazione e reperimento 
dei dati e il tempo necessario per acce- 
dere a essi. Inoltre i dati scritti sulle unità 
ottiche non si possono cancellare: in un 
disco ottico si può scrivere fino a quando 
c'è spazio e poi si può rileggere più volte 
quello che è stato registrato, ma non vi 
è possibilità di scrivere nuovi dati in luo- 
go dì quelli vecchi. 

Una registrazione magneto-ottica per- 
mette di aggirare le limitazioni di un si- 
stema ottico dì memoria e di conservar- 
ne i vantaggi; tale sistema è un ibrido in 
cui si sfrutta un fascio laser per scrivere 
e leggere i dati su uno speciale mezzo 
magnetico. Come i mezzi a registrazione 
perpendicolare, anche il materiale dei 
dischi magneto-ottici è fatto in modo da 
avere l'asse di magnetizzazione prefe- 
renziale perpendicolare al piano del di- 
sco. La differenza fondamentale fra i 
due mezzi è che il magne io-ottico è pro- 
gettato per avere elevata coercitività a 
temperatura ambiente e bassa coerciti- 
vità a temperatura più alta. Quindi diri- 
gendo un fascio laser su una piccola zona 
del mezzo magneto-ottico la si può por- 
tare a una temperatura a cui la sua ma- 
gnetizzazione possa esse re facilmen te i n - 
dotta da un campo magnetico applicato. 
Come nei mezzi di registrazione magne- 
tica, anche nei mezzi magneto-ottici i da- 
ti binari sono codificati nella configura- 
zione della magnetizzazione. 

Per leggere i dati registrati si sfrutta il 
cosiddetto effetto Kerr. L'effetto Kerr è 
una rotazione del piano di polarizzazio- 
ne che un fascio luminoso subisce quan- 
do viene riflesso da un mezzo magneti- 
co. A seconda che la magnetizzazione 
del mezzo magneto-ottico sia diretta 
verso l'alto o verso il basso, la rotazione 
è oraria oppure antioraria. I dati posso- 
no allora essere letti sul disco magneto- 
-ottico rilevando la rotazione presentata 
dal piano di polarizzazione del raggio la- 
ser riflesso dal mezzo. La lettura dei dati 
da un disco magneto-ottico può essere 
effettuata con lo stesso laser usato per la 
scrittura, facendolo funzionare a una po- 
tenza inferiore rispetto a quella impiega- 
ta per la registrazione. 

I materiali più promettenti per la re- 
gistrazione magneto-ottica sono leghe di 
una terra rara (come il gadolinio e il ter- 
bio) e di un metallo di transizione (come 
il ferro e ìi cobalto) depositate mediante 
spruzza mento catodico su un disco. I 
momenti magnetici dei singoli atomi del- 
la terra rara e del metallo di transizione 
hanno versi opposti e quindi la risultante 
magnetizzazione della lega è di fatto pari 
alla differenza di magnetizzazione fra i 
due elementi. Poiché la magnetizzazio- 
ne dì questi due tipi di elementi varia in 
modo diverso al variare della tempera- 
tura, è possibile, modificando la tempe- 
ratura, far variare la magnetizzazione e 
la coercitività della lega. 

Più precisamente la magnetizzazione 




POSIZIONE 



+ 

t 


it 


'W 1 v;mm/v ' yvvvw U 


iti 


- -/ - - - / - 

m „ .^CAMf? 1 ?!' MAGNETIZZAZIONE 
c DEMAGNET1ZZAZI0NE 


li 


i\'h. AAaaa - a a aàa - Ama Am - A a 


t 




+ + + + + + + 

d 

+ - + + 


; 


4| 


1 


t 


t 


A n . A h 


; 


+ + 

e 

+ + + + + + + ■+ + + 


'TtH 


Ti t t t It 





In un mezzo magneto-ottico i campi di demagnelizzazione possono essere applicati per scrivere 
e cancellare le regioni magnetizzate. Un impulso laser conferisce al mezzo una distribuzione di 
temperatura caratteristica lai che riduce la coercìlività in una regione magnetizzata in modo 
uniforme (fri, consentendo al campo di de magnetizzazione interno di invertire la magnetizzazione 
della regione riscaldata dal laser (e). Anche il campo di demagnelizzazione della regione invertita 
viene a sua Milla invertito e quindi un impulso successivo può far si che la magnetizzazione al 
centro della regione invertita assuma il verso originario idi. Le parti esterne della regione 
doppiamente invertita sono instabili e collassano, riportando il mezzo allo stato iniziale (*>, 



della terra rara della lega domina a bassa 
temperatura, mentre la magnetizzazione 
opposta del metallo di transizione domi- 
na a temperature più alte. A una deter- 
minata temperatura intermedia, che vie- 
ne detta punto di compensazione , la ma- 
gnetizzazione della lega è nel complesso 
nulla. Se tuttavia la temperatura diviene 
abbastanza elevata, la magnetizzazione 
complessiva tende di nuovo a zero, per- 
ché l'agitazione termica degli atomi di- 
venta abbastanza intensa da rendere ca- 
suale l'orientazione dei momenti magne- 
tici degli atomi. La temperatura alla qua- 
le si presenta questo fenomeno si chiama 
temperatura di Néel. 

Al punto di compensazione la coerci- 
tività tende all'infinito perché non vi è 
alcuna magnetizzazione con cui un cam- 
po magnetico applicato possa interagire. 
D'altra parte, a temperatura appena in- 
feriore alla temperatura di Néel, è suffi- 
ciente un debole campo magnetico per 
determinare il verso di magnetizzazione 
del metallo di transizione. Di conse- 
guenza in un mezzo magneto-ottico la 
coercitività è alta presso il punto di com- 
pensazione e decresce vicino alla tempe- 
ratura di Néel. 



Denché si sappia da tempo che i dischi 
■" magneto-ottici si possono in linea di 
principio cancellare e riscrivere, fino a 
poco tempo fa i ricercatori ritenevano 
che fosse impossibile, in un mezzo ma- 
gneto-ottico, invertire il verso della ma- 
gnetizzazione alla velocità con cui si pos- 
sono scrivere i dati su un mezzo vergine. 
Si pensava che, anche riscaldando il 
mezzo con il laser, i campi necessari per 
invertirne la magnetizzazione fossero 
troppo forti e quindi sarebbe stato trop- 
po difficile costruire una testina capace 
di generare campi di tale intensità e di 
invertirli in sincronia con un ragionevole 
ritmo di registrazione dei dati. Per que- 
sto motivo i ricercatori pensavano che 
per riscrivere su un disco magneto-ottico 
fosse necessario far compiere al disco un 
primo passaggio sotto la testina ottica 
solo per cancellare i vecchi dati e poi un 
altro passaggio per scrivere i nuovi dati, 
separando accuratamente la velocità di 
cancellazione dei dati dalla velocità di 
registrazione. Con tale metodo il tempo 
necessario per riscrivere un disco au- 
menterebbe di parecchi millisecondi. 

E ormai dimostrato che un mezzo ma- 
gneto-ottico può essere direttamente ri- 



72 



73 



scritto. L'espediente consiste nel rende- 
re abbastanza intensi i campi di dema- 
gnetìzzazione del mezzo che ricopre il 
disco (o. il che è equivalente, nel rendere 
abbastanza bassa la coercitività del mez- 
zo ad alta temperatura) in modo da riu- 
scire a invertire la magnetizzazione di 
una regione ogni volta che il mezzo è 
riscaldato; in questo modo non è richie- 
sta l'applicazione di alcun campo ester- 
no. Uno dei metodi possibili è quello di 
far leggere il verso di magnetizzazione di 
una zona del disco da un sistema laser di 
bassa potenza per poi confrontarlo con 
il verso che i nuovi dati assegnano alla 
magnetizzazione della stessa zona. Se è 
necessario invertire la magnetizzazione, 
un altro sistema laser dirige un impulso 
luminoso sulla zona e la riscalda, in mo- 
do che i campi di demagnetizzazione 
possano invertire il verso della magne- 



tizzazione. Un'alternativa è che il primo 
laser riscaldi il mezzo nella zona da ri- 
scrivere con un impulso abbastanza bre- 
ve da far ritornare allo stato originario 
le regioni con magnetizzazione invertita, 
senza però modificare le altre, in modo 
che tutte le zone abbiano lo stesso verso 
di magnetizzazione. Il secondo laser 
emette poi impulsi luminosi più lunghi 
per invertire la magnetizzazione delle 
zone che debbono essere invertite in 
conformità con i nuovi dati. In entrambi 
i casi i due fasci laser possono essere fo- 
calizzati con una sola lente, purché i loro 
punti focali siano distanziati di pochi 
micrometri. 

Siccome il laser di scrittura e lettura 
può essere focalizzato su un'area mi- 
nuscola (dell'ordine di mezzo microme- 
tro) e può seguire una pista con una pre- 




Questa unità a dischi magnetici della IBM utilizza lestine elettromagneti che a pellìcola sottile 
(alle estremità dei bracci triangolari) per scrìvere dati velocemente e con alta densità. 



cisione dell'ordine di 0.1 micrometri, è 
possibile registrare i dati su piste estre- 
mamente sottili. In effetti in sistemi spe- 
rimentali di memorie magne to-ottiche si 
è dimostrato che si possono ottenere 
densità areali di bit più elevate di oltre 
un ordine di grandezza di quelle delle 
attuali unità a dischi magnetici. Inoltre, 
la lente di fecalizzazione del sistema può 
essere mantenuta a una distanza di pa- 
recchi millimetri dal mezzo, pur fornen- 
do un'ottima risoluzione attraverso uno 
strato trasparente. La grande distanza 
fra lente e mezzo fa sì che non vi sia alcun 
pericolo che la testina si rompa e inoltre 
lo strato trasparente sovrapposto pro- 
tegge il mezzo dal deterioramento. Per 
di più i corpi estranei sul substrato non 
si trovano sul piano focale della lente, e 
quindi, purché le loro dimensioni non 
siano eccessive, non provocano errori. 
(E questo il motivo per cui i comuni 
compact disc si possono maneggiare.) 

Oltre ai componenti ottici preposti al 
compito di leggere e scrivere, una testina 
magneto-ottica contiene anche compo- 
nenti che mantengono a fuoco il fascio 
laser e consentono alla lente di seguire 
correttamente i dati sul disco in rotazio- 
ne. Di solito tutte queste parli sono con- 
tenute in una testina di 150 grammi il cui 
lato misura un paio di centimetri appe- 
na. Tuttavia, per quanto piccola possa 
sembrare, questa testina è già grande in 
confronto a un'ordinaria testina di regi- 
strazione magnetica. A causa della loro 
massa più grande, le testine ottiche non 
possono essere spostate velocemente da 
una pista all'altra; in effetti, nette unità 
ottiche i tempi di accesso tipici sono fi- 
nora stati di circa 0.1 secondi, ossia di un 
ordine di grandezza più lunghi rispetto 
alle unità magnetiche. 

Malgrado ciò è probabile che i tempi 
di accesso delle unità magne to-ottiche 
saranno notevolmente ridotti. Alcuni ri- 
cercatori, per esempio, hanno dimostra- 
to che, usando fibre ottiche per collegare 
la lente agli altri componenti ottici, l'ac- 
cesso a una pista del disco richiede solo 
lo spostamento della struttura collega ta 
alla lente. (La struttura può essere alleg- 
gerita fino a raggiungere il peso di una 
testina magnetica.) Altri hanno propo- 
sto di integrare l'ottica e l'elettronica in 
un unico dispositivo mediante tecniche 
di microfabbricazione. Queste e altre in- 
novazioni permetteranno probabilmen- 
te di ridurre i tempi di accesso delle unità 
magneto-ottiche, rendendoli paragona- 
bili a quelli delle unità magnetiche. 

La possibilità di scrivere direttamente 
nuovi dati su un mezzo già scritto, le ele- 
vatissime densità di registrazione (del- 
l'ordine di 10 milioni di caratteri per cen- 
timetro quadrato), la resistenza alla rot- 
tura della testina e la maneggevolezza 
dei supporti ottici fanno sì che la regi- 
strazione magneto-ottica possa diventa- 
re una forte concorrente nei confronti 
della tradizionale registrazione magneti- 
ca in tutte le applicazioni che richiedono 
l'immagazzinamento di dati. 



74 




Interfacce 
per l'elaborazione avanzata 

Con la prossima generazione di supercalcolatori la comunicazione fra 
utente e macchina verrà facilitata dalla possibilità di creare «realtà 
artificiali» come avviene attualmente nel caso delle simulazioni di volo 

di James D. Foley 



Un simulatore di volo costituisce 
un valido esempio di come 
l'attuale tecnologia informati- 
ca riesca a imitare la realtà. T calcolatori 
producono i suoni, le sollecitazioni e i 
movimenti che ricostruiscono il compor- 
tamento aerodinamico di un aeroplano 
in volo, mentre i supercalcolatori specia- 
lizzali forniscono le rappresentazioni vi- 
sive. Generare visualizzazioni verosimili 
è particolarmente difficile, ma i super- 
calcolatori possono essere perfetti illu- 
sionisti. Questa loro «maestria» però è 
sfruttata solo di rado per comuni appli- 
cazioni scientifiche. 

Perché limitare le capacità di simula- 
zione della tecnologia dei calcolatori alle 
esercitazioni che si svolgono a] posto di 
pilotaggio di un velivolo? Una macchina 
in grado di ricreare le sensazioni del volo 
non potrebbe anche sintetizzare ; conte- 
sti usuali per problemi scientifici? Non 
potrebbe forse costruire un ambiente di 
comunicazione più naturale dei soliti co- 
mandi battuti alla tastiera? In breve, non 
si potrebbe programmare un calcolatore 
in modo da costruire una «realtà artifi- 
ciale» con cui l'utente possa interagire? 

Per molti scienziati e tecnici che si oc- 
cupano di calcolatori, la risposta a que- 
sta domanda è un ben deciso sì. Sono già 
stati redatti programmi per realtà artifi- 
ciali anche più complesse della simula- 
zione di volo. Si stanno sviluppando tec- 
nologie di interfaccia che permetteranno 
ai supercalcolatori di essere maggior- 
mente rispondenti alle modalità di co- 
municazione degli esseri umani, ivi in- 



clusi il tocco, il gesto, il linguaggio e an- 
che una sorta di contatto visivo. Oltre a 
visualizzazioni grafiche più realistiche, 
la prossima generazione di supercalcola- 
tori potrà permettere una letterale ma- 
nipolazione delle immagini generate al 
calcolatore, associata a sensazioni tattili 
e a retroazioni meccaniche. Sensori mi- 
sureranno la posizione della testa di un 
utente e seguiranno i movimenti dei suoi 
occhi; programmi di riconoscimento del- 
la voce consentiranno ai calcolatori di 
interpretare il linguaggio parlato. 

I ricercatori sperano che le realtà arti- 
ficiali renderanno più efficiente e diver- 
tente imparare a conoscere e sfruttare le 
capacità di un superca [colatore. Queste 
interfacce complesse e raffinate potran- 
no fare per gli scienziati e i tecnici quel- 
lo che i programmi di tabellone elettro- 
nico, come Lotus 1-2-3. hanno fatto per 
Sili esperti di contabilità Ovviamente le 
realtà artificiali sono più promettenti per 
certi problemi e meno per altri; è diffi- 
cile, per esempio, immaginare come l'e- 
ditoria elettronica che si avvale del cal- 
colatore personale possa trarre vantaggi 
dalla rappresentazione tridimensionale 
e da schermi delle dimensioni di una pa- 
rete. Al contrario, molti problemi scien- 
tifici, in particolare quelli che possono 
essere rappresentati in tre dimensioni, 
richiedono un grado elevato di interazio- 
ne fra uomo e macchina. 

T 'interfacciamento fra utente e caico- 
J— ' latore può essere l'ultima frontiera 
per la progettazione informatica. Negli 



Un'unità video (monitor) rissata aita testa con un sensore di posizione e orientazione, guanti che 
trasmettono i movimenti della mano e delle dita e un dispositivo per il riconoscimento della voce 
it. ii portano l'utente in una realtà generata dal calcolatore. L'utente impartisce istruzioni al 
calcolatore indicando con le dita, parlando, facendo gesti e manipolando immagini grafiche. 1 
ricercatori che lavorano all'Ames Research Center della NASA hanno costruito molte realtà 
artificiali utilizzabili con questo sistema {si veda l'illustrazione nella pagina successiva). 



ultimi anni i costi dell'hardware sono di- 
minuiti drasticamente e anche i costi del 
software stanno diminuendo, sia pure 
meno rapidamente. Sono state ben col- 
laudate tecniche per ottimizzare l'effi- 
cienza dei calcolatori e rendere minima 
l'occupazione di memoria, caratteristi- 
che che vengono costantemente perfe- 
zionate. Quello che resta da fare è otti- 
mizzare l'efficienza dell'utente. 

Il calcolo scientifico, in particolare, è 
stato costretto a concentrarsi sulle pre- 
stazioni dell'hardware, perché le esigen- 
ze di elaborazione in questo campo sono 
davvero molto grandi. Con la nuova ge- 
nerazione di supercalcolatori, il centro 
dell'attenzione potrà finalmente cam- 
biare. Il Cray-2, che attualmente è uno 
dei calcolatori più veloci del mondo, può 
svolgere 100(1 milioni di operazioni in 
virgola mobile al secondo (mflops). 
(flops è un acronimo per floaimg-poìnt 
operaiions per second , operazioni in vir- 
gola mobile al secondo; si tratta di una 
misura industriale standard della veloci- 
tà dei calcolatori; i calcolatori personali 
hanno velocità che vanno normalmente 
da 1000 a l()0 (XX) flops.) La prossima 
generazione di calcolatori Cray, prevista 
per il 1988, avrà una velocità dieci volte 
superiore. Anche le stazioni di lavoro 
che forniscono la grafica per i supercal- 
colatori stanno diventando più potenti: 
una stazione di lavoro che la Stellar 
Computer, Inc. si propone di commer- 
cializzare dal gennaio prossimo avrà una 
velocità di circa 50 mflops. 

In che modo questa potenza ulteriore 
può far sì che l'interazione fra utente e 
calcolatore diventi più simile a una coo- 
perazione che a un confronto? Ovvia- 
mente un aumento nella velocità di cal- 
colo è un vantaggio in se stesso in quanto 
fa diminuire e in qualche caso addirittura 
elimina il tempo di attesa durante il qua- 
le il calcolatore genera i risultati. Meno 
ovvi sono i mezzi per legare più stretta- 

79 



ice ttenu 




SSSsBmSEi 




sBhh 

■■-. . 3$ b s - - Essa 
- -■' -'T. -■'■■• Si 


ci 

r ! 


\ ^^ 




%* ^ 


^^ // 


• * 


*** 


■':-■ 




mente gli utenti dei supercalcolatori al 
processo di soluzione dei problemi. 

Lavorare oggi su un tipico su perca [co- 
latore è un po' come consultare un ora- 
colo dell'era elettronica. C'è un periodo 
di preparazione durante il quale si defi- 
nisce un problema e se ne specificano i 
parametri su una stazione di lavoro. 
Questa organizza il problema in una for- 
ma adeguata per il supercalcolatore; te 
elaborazioni che ne derivano possono ri- 
chiedere secondi, ore o giorni. In molti 
casi l'utente non può interrompere o 
modificare le elaborazioni, una volta av- 
viate, e, se i risultati suggeriscono un 
controllo con parametri alternativi, il ri- 
tuale deve essere ripetuto dall'inizio. 

Le realtà artificiali, di cui i simulatori 
di volo ci danno un anticipo, rivoluzio- 
neranno le modalità di lavoro al super- 
calcolatore. Consentiranno all'utente di 
interagire con il calcolatore in una forma 
intuitiva e diretta, e di aumentare il nu- 
mero delle interazioni per unità di tem- 
po. L'obiettivo finale della ricerca sul- 
la realtà artificiale è la costruzione di 
un ambiente simulato che appaia tanto 
«reale» quanto la realtà che rappresenta. 
L'aspetto più valido delle interfacce, pe- 
rò, può consistere nella loro capacità di 
andare oltre la realtà stessa, fornendo 
modelli concreti dì entità astratte come 
le equazioni matematiche, e di consen- 
tire agli utenti di superare i problemi di 
scala, trattando con la stessa facilità ato- 
mi e galassie. 

r "Pre sono le componenti della realtà 
*■ artificiale: rappresentazione, com- 
portamento e interazione. Una rappre- 
sentazione visiva realistica aiuta l'utente 
a interpretare le informazioni presentate 
dal calcolatore. Le immagini possono ri- 
guardare oggetti reali, come strutture ar- 
chitettoniche, o astrazioni come confi- 
gurazioni di flusso. Queste immagini «si 
comportano» come si comporterebbero 
gli oggetti o gli enti astratti che rappre- 
sentano. I modelli di comportamento 
esigono un contributo di elaborazione 
più alto, perché spesso richiedono la so- 
luzione ripetuta di grandi insiemi di 
equazioni. Infine, l'utente «interagisce» 
con una realtà artificiale più o meno co- 
me fa con il mondo tridimensionale rea- 



Fra le rappresentazioni grafiche proiettate al- 
l'interno della maschera mostrata nell'illu- 
strazione a pagina 78 vi sono interfacce a menu 
un alto), configurazioni di flussi aerodinamici 
[al centro) e il laboratorio che ospita il sistema 
(in basso). Queste fotografìe danno solo un'i- 
dea del realismo delle visualizzazioni effetti- 
ve, che rendono la profondità mostrando a 
ciascun occhio una vista sotto una prospettiva 
leggermente diversa e che permettono all'u- 
tente di esplorare l'ambiente generato dal cal- 
colatore ruotando la testa. L'utente può sele- 
zionare una opzione dal menu con parole o ge- 
sti, spostare il modello aerodinamico per os- 
servarlo sotto altra angolazione, allungare le 
mani per «toccare* gli oggetti del laboratorio. 



80 




La simulazione dei flussi aerodinamici generati da un caccia F-16A dà un'idea della raffinatezza 
grafica degli attuali supercalcolatori. Il flusso dell'aria e la sua elevazione rispetto alla fusoliera 
dell'aereo sono indicati da strisce di colore: bassa elevazione in blu, alta in rosso. Le volute in 
rosso sulle ali indicano le aree sottoposte a sollecitazione di taglio. Le informazioni fornite da 
questa immagine aiutano i tecnici nella progettazione di acrei con minore resistenza aerodina- 
mica e maggiore portanza. Molte realtà artificiali possiedono già una grafica altrettanto evoluta. 



le: spostando, indicando, afferrando og- 
getti, parlando e osservando da molti 
punti di vista diversi. 

La componente interattiva delle realtà 
artificiali è in ritardo rispetto alle altre 
due componenti. Le tecnologie oggi in 
commercio per vedere e manipolare in 
tre dimensioni sono ancora piuttosto pri- 
mitive. Quali tipi di dispositivi interattivi 
potranno ristabilire l'equilibrio? 

Cominciamo con la componente più 
comune dell'interfaccia con il calcolato- 
re: l'unità video (o monitor). La tipica 
stazione di lavoro per calcolatore è do- 
tata di un'unità video a colori da 19 pol- 
lici; vista da una distanza di circa 70 cen- 
timetri, l'area di visualizzazione sotten- 
de 37 gradi del campo visivo in orizzon- 
tale e 28 gradi in verticale. 11 campo vi- 
sivo di un occhio però, assumendo che 
la testa sia immobile, copre ISO gradi in 
orizzontale e 150 in verticale. Schermi 
che riempiano il campo visivo danno al- 
l'osservatore la sensazione di far parte di 
una scena: lo dimostrano i sistemi cine- 
matografici a largo schermo IMAX e 
omnimax. Pertanto portare le immagini 
che appaiono sullo schermo di un calco- 
latore alle dimensioni di una parete po- 
trebbe favorire ['«immersione» dell'u- 
tente in una realtà artificiale. 

Un visualizzatore più grande riempie 
meglio il campo visivo, ma non può mo- 
strare un numero maggiore di particolari 
se usa lo stesso numero di pixel , cioè di 
elementi di immagine. I pixel sono i pun- 
ti discreti di luce che costituiscono l'im- 
magine in un tubo a raggi catodici e quin- 
di definiscono la sua risoluzione. Una 



tipica unità video di una stazione di la- 
voro è costituita all'incirca da un milione 
di pixel disposti in una matrice di 1280 
pixel per 1024. Alla normale distanza di 
osservazione, ogni pixel sottende circa 
due primi di campo visivo, mentre l'oc- 
chio umano è in grado di distinguere par- 
ticolari fino a un primo di campo visivo. 
Attualmente è disponibile un'unità vi- 
deo a colori con uno schermo quadrato 
di 20 pollici di lato su cui trovano posto 
circa quattro milioni di pixel disposti in 
una matrice di 2000 per 2000; visto da 
una distanza di circa 70 centimetri, ogni 
pixel sottende un angolo di circa 1 ,4 pri- 
mi. Deve ancora essere costruita un'uni- 
tà video che sfrutti appieno l'acutezza 
della visione umana, alla normale di- 
stanza di osservazione. 

Con queste limitazioni, come si può 
migliorare ancora il realismo? Un'alter- 
nativa è il visualizzatore fissato diretta- 
mente alla testa. Questo visualizzatore 
può facilitare la percezione della profon- 
dità, con lo stesso principio con cui un 
visore Vu-Master permette l'effetto ste- 
reoscopico: ciascun occhio percepisce 
una visione leggermente spostata della 
stessa immagine. Altri indizi dì profon- 
dità sono dati dalla parallasse di movi- 
mento, il fenomeno che descrive lo spo- 
stamento dello sfondo che si verifica 
quando un osservatore cambia posizione 
mentre fissa un punto nello spazio. Que- 
sto effetto si ottiene grazie a un sensore 
che registra la posizione e l'orientazione 
della testa. Inoltre, dato che il sensore 
riconosce i movimenti più ampi della te- 
sta, l'utente può avere l'illusione di am- 



mirare un panorama artificiale ruotando 
il capo. Le immagini che vede dipendo- 
no dalla direzione verso cui è rivolto. 

Nel primo visualizzatore fissato alla 
testa, costruito da Ivan l£. Sutheriand 
negli anni sessanta, minuscoli tubi a rag- 
gi catodici fungevano da visualizzatori e 
collegamenti meccanici riferivano al cai- 
colatore la posizione e l'orientazione 
delia testa. Oggi sono possibili realizza- 
zioni più pratiche , grazie alle leggerissi- 
me unità video a cristalli liquidi e ai sen- 
sori elettronici. Il sistema più avanza- 
to dotato di queste caratteristiche non 
solo è in grado di creare realtà artificia- 
li, ma può anche «sostituire» una realtà 
con un'altra. AH'Ames Research Center 
della National Aeronautici and Space 
Administration, Scott S. Fisher, Mi- 
chael W. McGreevy e James C. Hum- 
phries hanno realizzato una «maschera» 
con cui un astronauta, dall'interno di 
una stazione spaziale, potrà vedere con 
gli «occhi » di un robot operan te all'ester- 
no. Non appena l'astronauta muove la 
testa, le telecamere del robot si rivolgo- 
no nella direzione corrispondente. 

Il sensore elettronico, che nel sistema 
approntato dalla NASA registra posizio- 
ne e orientazione della testa, riveste 
un ruolo importante in molti altri siste- 
mi di interfaccia. Costruito dalla divisio- 
ne Pothemus Navigation Sciences della 
McDonnell Douglas Corporation, il sen- 
sore opera inviando impulsi elettroma- 
gnetici da tre antenne trasmittenti a tre 
antenne riceventi. Sia nelle unità tra- 
smittenti, sia in quelle riceventi, le spire 
delle antenne sono perpendicolari l'una 
all'altra formando così un sistema di co- 
ordinate cartesiane. 

Il trasmettitore è una scatola di circa 
cinque centimetri di lato, che deve esse- 
re collocata a una distanza non superiore 
a un metro e mezzo circa dal ricevitore. 
Esso emette tre impulsi in successione, 
uno da ciascuna antenna. Gli impulsi ge- 
nerano una corrente indotta nelle spire 
del ricevitore, un cubo di circa due cen- 
timetri di spigolo, che è collocato sull'og- 
getto che deve essere seguito. L'intensi- 
tà della corrente dipende sia dalla distan- 
za fra trasmettitore e ricevitore, sia dal- 
l'orientazione relativa delle loro spire. 
Un calcolatore può individuare la posi- 
zione dell'unità ricevente sulla base dei 
nove valori di intensità di corrente pro- 
dotti dai tre impulsi successivi. I tre im- 
pulsi sono ripetuti circa 40 volte al secon- 
do e le immagini risultanti si spostano in 
modo un po' irregolare; la simulazione 
di un movimento continuo probabilmen- 
te non sarà possibile finché il sensore 
non sarà. in grado di produrre 60 terne di 
impulsi al secondo. 

Installato sulla maschera della NASA, 
il sensore della Polhemus sarebbe eccel- 
lente per determinare la direzione dello 
sguardo di un utente, se non fosse per un 
particolare: gii occhi possono muoversi, 
e spesso in effetti si muovono, indipen- 
dentemente dalla testa. Per superare 
questa difficoltà ì ricercatori stanno met- 



82 



tendo a punto una tecnologia presa a 
prestito dalla psicologia sperimentale. 
Gli psicologi usano da tempo dispositivi 
chiamati eye tracker per ottenere dati sui 
modo in cui si legge e si esaminano im- 
magini. Questi dispositivi inviano un fa- 
scio di luce sulla cornea dell'occhio; la 
direzione in cui la luce viene riflessa in* 
dica dove sta guardando l'utente. 

Gli eye tracker sono ancora una novità 
per il mondo dei calcolatori. Dispositivi 



di questo tipo, che si fissano a occhiati, 
si possono acquistare per pochi milioni 
di lire, ma non sono molto precisi. Un 
sistema più raffinato invia un piccolo fa- 
scio di luce infrarossa sulla cornea e ne 
rileva il riflesso per mezzo di una teleca- 
mera grandangolare collocata a distanza 
di circa un metro dall'utente. La teleca- 
mera rimane puntata sull'occhio anche 
se i movimenti della testa sono molto 
ampi, ma non se gli spostamenti sono 



DISPOSITIVO 
01 RETROAZIONE 
TATTILE 



SENSORI DI FLESSIONE 



CAVI A FIBRE OTTICHE 



GUIDE DEI CAVI 




SENSORE 
DI POSIZIONE 
E ORIENTAZIONE 



SENSORI 
DI ABDUZIONE 



ESTERNO 
DEL GUANTO 



FODERA 
DEL GUANTO 



PIASTRA DI INTERFACCIA 



Il DataGlove, uno speciale guanto realizzato dalla VPL Research, Inc., traduce i vari movimenti 
dell;! mano in segnali elettrici. Cavi a fibre ottiche collegati alle due estremità a una piastra di 
interfaccia corrono tra i due strati di tessuto per tutta la lunghezza di ogni dito. Ogni cavo ha 
un diodo a emissione di luce a un'estremità e un fototransistore all'altra. 1 cavi sono realizzati 
in modo che quanto più un dito si flette, tanto più la luce viene dispersa; il fototransistore ha il 
compito di convertire la luce in segnale elettrico. Il sensore di posizione e orientazione è stato 
costruito dalla divisione Pnlhemus Navigai io n Sciences della McDonnell Douglas Corporation, 



molto rapidi: essa può venire disturbata, 
per esempio, da uno starnuto. 

Schermi a dimensione di parete, visua- 
lizzatori fissati alla testa, sensori di 
posizione ed eye tracker potranno au- 
mentare la verosimiglianza della realtà 
artificiale allargando il campo visivo e 
intensificando i particolari nel punto di 
osservazione. I visualizzatori possono 
presentare immagini reali, come la ma- 
schera per la stazione spaziale della 
NASA, o immagini artificiali generate 
da un supercalcolatore. Come interagirà 
l'utente con queste rappresentazioni? 

La maggior parte dei dispositivi attuali 
di interazione è limitata alle due dimen- 
sioni. Anche le manipolazioni di simu- 
lazioni tridimensionali debbono essere 
specificate con uno strumento bidimen- 
sionale, per esempio un mouse o un 
joystick. Le cose vanno anche peggio con 
i sistemi che controllano separatamente 
i tre assi. Sarebbe bello se si potesse rea- 
lizzare un dispositivo che combinasse la 
precisione, il controllo e l'agilità della 
mano umana! In realtà un «dispositivo» 
del genere esiste già: è costituito dalla 
mano stessa, equipaggiata con un senso- 
re della Polhemus e un guanto speciale, 
il DataGlove, che può registrare i movi- 
menti della mano e delle dita. 

Il DataGlove è stato sviluppato nel 
corso degli ultimi tre anni da Thomas G. 
Zìmmerman e L. Young Harvill in una 
piccola azienda della California, la VPL 
Research, Inc. Per tutta la lunghezza di 
ogni dito corrono cavi a fibre ottiche, 
racchiusi fra due strati di tessuto, A ogni 
estremità i cavi sono fissati a una piastra 
di interfaccia, collocata vicino al polso. 
Un led (diodo a emissione di luce) si- 
tuato a un'estremità invia radiazioni lu- 
minose lungo il cavo a un fototransistore 
collocato all'altra estremità. Il fototran- 
sistore trasforma la luce in un segnale 
elettrico riconoscibile da un calcolatore; 
il segnale viene poi trasmesso dal polso 
al terminale mediante un filo elettrico. I 
comuni cavi a fibre ottiche trasmettono 
la luce anche quando sono piegati, ma 
nel DataGlove i cavi sono modificati, là 
dove le dita si flettono, in modo che vi 
sia dispersione di luce quando un dito si 
piega o quando, poniamo, l'utente spo- 
sta il pollice verso l'indice. Quanto più 
ampio è il movimento, tanto maggiore è 
la quantità di luce che viene dispersa. 

Abbinato a un sensore della Polhe- 
mus, che può essere installato sul dorso 
della mano, il DataGlove ha possibilità 
entusiasmanti. Il gruppo di Fischer al- 
l' Ames Research Center usa il guanto in 
associazione alla maschera da stazione 
spaziale; la NASA spera che un giorno 
un robot, operando all'esterno della sta- 
zione spaziale, possa eseguire manovre 
complesse ripetendo ì movimenti fatti 
dalla mano di un astronauta che stia al- 
l'interno della stazione stessa. La VPL 
sta utilizzando i princìpi del DataGlove 
per costruire una DataSuit. una tuta che 
copra tutto il corpo di un uomo. 



84 




Il joystring è uno dei più efficaci dispositivi che generano forze di retroazione. Progettato da 
Richard J. Feldmann dei National Institutes of Health, trasmette a un calcolatore la posizione 
della mano che impugna la T; il super-calcolatore a sua volta comanda i servomotori in modo che 
esercitino una forza, mediante tensione differenziale dei fili collegati alle estremità della T. 



Un'interfaccia complessa come il Da- 
taGlove può non aver senso per 
ogni tipo di problema, ma molte fra le 
equazioni scientifiche che vengono pre- 
sentate ai su perca Icola tori sono modelli 
di sistemi che si possono maneggiare me- 
glio direttamente che non per mezzo di 
comandi battuti alla tastiera. Inoltre, le 
realtà artificiali possono aggiungere un 
elemento lattile a sistemi che normal- 
mente non possono essere toccati. Per 
esempio, immaginate un biochimico che 
esamini due molecole: un enzima e il 
substrato a cui si lega. Egli conosce la 
struttura dell'uno e dell'altro e ambedue 
le molecole sono visualizzate sullo scher- 
mo del suo calcolatore. Poniamo che de- 
sideri scoprire quali sono ie parti dell'en- 
zima e del substrato che interagiscono. 
Armato di un DataGlove, potrebbe ra- 



pidamente manipolare le due molecole 
come i pezzi di un rompicapo per vedere 
in quali punti combacino. 

Ora immaginate di poter «sentire» la 
topografia della molecola enzimatica: le 
fenditure e le sporgenze, i suoi contorni 
smussati e i suoi spigoli netti . Immagina- 
te di poter esplorare con un dito il sito 
attivo dell'enzima, che esercita una forte 
attrazione chimica sul substrato. Imma- 
ginate di poter spostare il substrato vici- 
no al sito attivo e di poter avvertire la 
spinta delle forze interatomiche che uni- 
scono le due molecole! Per ottenere que- 
sti effetti i tecnici stanno vagliando alcu- 
ni metodi per creare retroazioni tattili e 
di forze meccaniche. 

Si stanno provando tre tecnologie per 
la retroazione tattile, che potrebbero es- 
sere incorporate nel progetto del Data- 



Giove, La prima tecnologia consiste nel- 
l'adattamento di un dispositivo a retroa- 
zione tattile per i non vedenti, in cui pic- 
coli solenoidi spingono contro la pelle fili 
dalla punta arrotondata. Questo tipo di 
attuatore, però, è probabilmente troppo 
grande: ha uno spessore di poco inferio- 
re al centimetro. Insieme con il guanto 
si possono utilizzare anche cristalli pìe- 
zoelettriei: i cristalli vibrano quando so- 
no attivati da una corrente elettrica e il 
cervello percepisce la loro vibrazione co- 
me una pressione. Un terzo metodo 
sfrutta i nuovi «metalli dotati di memo- 
ria» che cambiano forma con la tempe- 
ratura. Sì potrebbero disporre piccoli 
pezzi isolati dì questi metalli in modo che 
premano contro la pelle quando vengo- 
no riscaldati da una corrente elettrica 
che li attraversa. 

Anche se i metalli dotati di memoria 
possono offrire una soluzione, risulta più 
difficile simulare la sensazione di una 
forza in un dispositivo a guanto. Già nel 
1968 un gruppo diretto da Frederick P. 
Brooks, Jr., dell'Università della Notili 
Carolina a Chape! Hill aveva adattato a 
questo scopo un dispositivo per la mani- 
polazione a distanza, del tipo di quelli 
usati per maneggiare materiali radioatti- 
vi. Oggi il sistema per la retroazione di 
forze più efficace è il joystring costruito 
da Richard J. Feldmann dei National In- 
stitutes of Health. Il joystring (il nome è 
stato coniato sul modello del joystick, 
che indica il suo predecessore bidimen- 
sionale) è una semplice T rigida lunga 
poco meno di 10 centimetri le cui estre- 
mità sono collegate da tre fili ben tesi. I 
fili sono a loro volta connessi a codifica- 
tori ad albero e a servomotori. L'utente 
afferra e muove la T del joystring; il cal- 
colatore interpreta i movimenti della 
mano dell'utente attraverso i codificato- 
ri ad albero e genera forze e coppie dì 
retroazione mediante i servomotori. 

Oltre al joystring, sono stati realizzati 
pochissimi altri dispositivi per la retroa- 
zione di forze e tutti in prototipo. I siste- 
mi sono stati limitati ad applicazioni spe- 
cializzate in laboratori di ricerca. I dispo- 
sitivi più semplici possono rispondere a 
forze in ingresso, ma non sono in grado 
di generare forze di retroazione. Alla 
George Washington University, John L. 
Sibert e il suo gruppo hanno sviluppato 
un'applicazione originale per un sistema 
di questo tipo, che reagisce a forze in 
ingresso. Hanno escogitato un sistema di 
disegno pittorico per artisti, basato su 
una tavoletta digitalizzatrìce commer- 
ciale, che non solo «sente» la posizione 
di uno stilo, ma anche la sua orientazio- 
ne e l'intensità della forza a esso appli- 
cata. Un calcolatore usa queste informa- 
zioni per simulare il comportamento del 
pennello di un pittore. Al crescere della 
pressione; il «pennello» si allarga e la 
larghezza della linea tracciata cambia 
con l'orientazione dello stilo. La realtà 
artificiale di Sibert riproduce fino a un 
certo punto gli strumenti tradizionali 
dell'artista, ma allo stesso tempo genera 



86 



strumenti artistici che finora non erano 
mai esistiti. 

Tn quali altri modi un utente potrebbe 
■*■ desiderare di interagire con un super- 
calcolatore? In molti casi parlare o fare 
gesti a un calcolatore potrebbe essere 
più appropriato o più comodo che mani- 
polare in modo non verbale immagini 
simboliche, I sistemi perii riconoscimen- 



to della voce e quelli per il riconoscimen- 
to dei gesti sono molto più avanzati delle 
altre componenti delle realtà artificiali. 
Oltre dieci anni fa, Nicholas Negroponte 
e Richard A. Bolt del Massachusetts In- 
stìtute of Technology dimostrarono la 
realizzabilità del riconoscimento della 
voce nell'interazione con il calcolatore. 
Oggi macchine con vocabolari dì parec- 
chie centinaia di parole sono collabora- 




L' auto re si è, servito di immagini di tubi ruotati per studiare in quale misura il realismo influenzi 
le prestazioni di un utente. Ai soggetti venivano mostrate due immagini affiancate e veniva chiesto 
loro di stabilire se un'immagine fosse una rotazione dell'altra. L'autore ha trovato che gli utenti 
riescono a confrontare tubi colorati e raffigurati con effetti di luce (a/ centro) più rapidamente 
di circa il 2f) per cento rispetto alle figure costituite da semplici contornì (in aito); ulteriori 
perfezionamenti delle immagini aventi lo scopo di renderle più realistiche (in basso) non 
hanno invece un'influenza significai iv;i sulla velocità con cui viene effettuato il confronto. 



tori usuali in attività che richiedono l'uso 
di tutte e due le mani, come il controllo 
di assemblaggi elettronici. 

La tecnologia del riconoscimento del- 
la voce, semplicemente, non è stata an- 
cora integrata nella maggior parte degli 
ambienti che operano nel settore della 
soluzione di problemi al calcolatore. 
Non è la prima volta che si verificano 
questi deplorevoli ritardi nell'adozione 
di una nuova tecnologia: anche il mouse, 
che venne sviluppato già alla fine degli 
anni sessanta, è stato messo in commer- 
cio solamente agli inizi degli anni ottan- 
ta. Nel frattempo i sistemi di riconosci- 
mento vocale vanno sempre più perfe- 
zionandosi. Kenneth Davies del Thomas 
J. Watson Research Center della IBM 
Corporation mi ha recentemente mo- 
strato un sistema sperimentale con un 
vocabolario di 20 000 parole, cioè circa 
il 98 per cento del repertorio di vocaboli 
di un inglese medio. Il calcolatore è in 
grado di interpretare anche frasi foneti- 
camente contorte come «Write Ms. Wri- 
ght a tener righi away ». La IB M prevede 
di poter realizzare, nel giro di qualche 
anno, un sistema dal costo abbordabile . 

In attesa che vengano risolte alcune 
difficoltà. Io sviluppo della tecnologia 
per il riconoscimento dei gesti va a rilen- 
to da vari anni. Bisogna insegnare ai si- 
stemi come eliminare le ambiguità nelle 
sequenze di gesti e come stabilire quan- 
do finisce un comando e comincia il suc- 
cessivo. James R. Rhyne del Watson 
Research Center ha sviluppato un siste- 
ma che riconosce i gesti della mano ese- 
guiti in due dimensioni con un dispositi- 
vo di posizionamento simile a una mati- 
ta. In un'applicazione di tabellone elet- 
tronico, l'utente può chiedere il totale di 
due gruppi di numeri, chiudendo in un 
cerchio ciascun gruppo su una tavoletta 
digitalizzatrice e facendo un segno di 
somma. Il calcolatore inserisce sul tabel- 
lone il totale, nella posizione indicata dal 
segno di somma. Questa tecnologia è an- 
cora ai suoi primi passi, ma ritengo che 
non sarà lontano il giorno in cui un bio- 
chimico dotato di DataGlove potrà ma- 
nipolare una forma molecolare visualiz- 
zata sullo schermo dì un su perca (colato- 
re, dicendo: «Lafenìlalanina 221 su que- 
sta elìca [puntando il dito] non interagi- 
sce correttamente con questa [cerchian- 
dola col dito] glutammina 57; metti al 
suo posto un'istìdina». 

Sembra che queste realtà siano vicine : 
in effetti uno degli ostacoli più difficili 
da superare sta nell'integrazione delle 
tecnologie che sono già state consolida- 
te. Eliminato quest'ostacolo, i dispositi- 
vi in sé richiederanno un investimento 
relativamente piccolo: un DataGlove, 
per esempio, costa circa 8000 dollari (in- 
torno agli 11 milioni di lire). In effetti, 
l'impegno di ricerca e di programmazio- 
ne sulle interfacce avanzate costituirà 
probabilmente l'aspetto più costoso del- 
la loro realizzazione. I vantaggi offerti 
dalle realtà artificiali saranno tali da giu- 
stificarne i costì? 



88 



Intuitivamente, sembrerebbe che un 
sistema che inviti all'interazione l'utente 
e che presenti le informazioni in modo 
accessibile debba essere più veloce, più 
istruttivo e più facile da imparare a usare 
che non le interfacce convenzionali. È 
difficile, però, quantificare questa sensa- 
zione. Un tecnico che sì occupi dei ma- 
teriati capirà meglio un'analisi delle ten- 
sioni se potrà applicare le tensioni con le 
sue stesse mani? Le interazioni moleco- 
lari saranno più evidenti se le loro forze 
si potranno percepire con mano? E 
quanto «reali» dovranno essere le realtà 
artificiali per poter raggiungere il loro 
obiettivo? 

Ho cominciato a pormi quest'ultima 
domanda, per quel che riguarda le rap- 
presentazioni visive, già da tempo. La- 
vorando con un collega, Woodrow Bar- 
field, e un gruppo di laureandi guidato 
da James W. Sandford, ho voluto con- 
trollare sperimentalmente quali siano ì 
vantaggi di un maggiore realismo sulla 
velocità con cui gli utenti di un calcola- 
tore eseguono una semplice elaborazio- 
ne mentale di due immagini. Il compito, 
che viene definito rotazione mentale, di 
solito viene presentato da psicologi spe- 
rimentali che studiano il modo in cui 
vengono rappresentate mentalmente le 
immagini. Ai nostri soggetti abbiamo 
mostrato affiancate due diverse immagi- 
ni di strutture simili a tubature, chieden- 
do loro di stabilire se un'immagine fosse 
la rotazione dell'altra. In alcune prove le 
immagini erano date da soli contorni; in 
altre erano colorate e con effetti di illu- 
minazione; in altre ancora erano colora- 
te, e presentavano, oltre agli effetti di 
illuminazione, superfici levigate e chia- 
roscurate. Ne è risultato che gli utenti 
possono confrontare figure piene e colo- 
rate con rapidità maggiore di circa il 20 
per cento rispetto alle figure costituite da 
soli contorni, ma con il passaggio a im- 
magini più raffinate, continue e chiaro- 
scurate, il tempo per il confronto non 
decresce ulteriormente. Se ne conclude 
che, a volte, può non essere necessario 
spingere il grado dì realismo delle realtà 
artificiali oltre un certo limite. 

Per quanto riguarda le domande sul 
valore sostanziale delle realtà artificiali, 
non disponiamo ancora di risposte. Cir- 
ca venti anni fa James J. Batter, allora 
ricercatore universitario, notò che alcuni 
studenti, osservando visualizzazioni gra- 
fiche di campi di forza bidimensionali, 
raggiungevano una migliore compren- 
sione dei concetti in questione se pote- 
vano non solo «vedere», ma anche «sen- 
tire» i vettori forza. Il lavoro di Batter, 
che usava un semplice dispositivo bidi- 
mensionale a forze di retroazione, è l'e- 
sempio più recente di una ricerca che ha 
come oggetto la valutazione delle realtà 
artificiali. Insieme agli esperimenti che 
ho condotto alla George Washington 
University esemplifica il tipo dì ricerca 
necessaria per accertare se le promesse 
in materia di realtà artificiali non siano, 
alla prova dei fatti, semplici illusioni. 



I raccoglitori per il 1987 

Questi raccoglitori corrispondono ai volumi XXXVIII e XXXIX 
de LE SCIENZE e rispettivamente ai fascicoli da gennaio (n. 221) 

a giugno (n. 226) e da luglio (n. 227) a dicembre (n. 232). 

Sono ancora disponibili i raccoglitori dal Voi. XXX al XXXVII e_ 

raccoglitori appositamente non numerati per sostituire quelli esauriti. 

I raccoglitori si possono richiedere direttamente all'editore usando 

l'apposita cartolina allegata alla rivista e unendo il relativo importo; 

gli ordini infatti vengono evasi solo a pagamento avvenuto. 

I raccoglitori si trovano anche presso i seguenti punti vendila: 

BOLOGNA - Libreria Parolina - Via U. Bassi 14 

FIRENZE - Libreria Marocco - Via de' Martelli 22/R 

GENOVA ■ Libreria Int. Di Stefano - Via R. Ceccardi 40/R 

MILANO - Le Scienze S.p.A. - Vìa De Alessandri II 

TORINO - Libreria Zanaboni - C.so Vittorio Emanuele 41 

NAPOLI - Libreria Guida A. - Via Pori" Alba 20/21 

PADOVA - Libreria Cortina - Via F. Marcalo 4 

PALERMO - Libreria Dante - Quattro Canti di Città 

ROMA - Claudio Aranci - Viale Europa 319 (EUR) 




Ogni 

raccoglitore 

L. 5.000 



Reti per l'elaborazione avanzata 

La connessione in rete dei calcolatori presenta, oltre al problema 
del collegamento «fisico» fra le macchine, l'esigenza del reciproco 
adattamento di sistemi eterogenei per la comunicazione interattiva 



di Robert E. Kahn 



Perché i calcolatori vengono con- 
nessi in rete? Perché le persone 
conversano? Le risposte alle due 
domande sono simili: per condividere 
informazioni, per provocare azioni o 
eventi, per collaborare in qualche modo. 
Molto si è scritto sugli sforzi compiuti 
per produrre calcolatori intelligenti, in 
grado di ragionare come esseri umani, 
ma il comportamento intelligente non è 
un fatto esclusivamente individuale. Es- 
so si basa in larga misura sulla comuni- 
cazione, ovvero su quella trama di rela- 
zioni, sia durevoli sia transitorie, che gli 
esseri umani intrecciano con i loro simili. 
La connessione in rete è quella tecnolo- 
gia che consente ai calcolatori di comu- 
nicare fra loro, il che è altrettanto im- 
portante, anche se non così «stimolan- 
te», del riuscire a produrre intelligenza 
artificiale. 

La connessione in rete presenta due 
aspetti essenziali. Innanzitutto, occorre 
stabilire un collegamento elettronico fra 
ì calcolatori e impiegare un sistema bene 
organizzato di trasmissione dei dati, che 
non introduca errori e non permetta ma- 
nomissioni. In secondo luogo, è indi- 
spensabile definire un linguaggio comu- 
ne che consenta a ogni calcolatore di 
comprendere ciò che l'altro gli comunica 
attraverso il collegamento. 

Nel presente articolo considererò en- 
trambe le problematiche, ma va fatta 
prima una precisazione: esistono molti 
tipi di connessioni in rete. Uno di questi 
tipi è rappresentato dai sistemi compu- 
terizzati di prenotazione impiegati dalle 
linee aeree; il sistema sabre, introdotto 
dalla American Airlines, è stato certa- 
mente uno dei primi esempi di comuni- 
cazione fra calcolatori tramite linee tele- 
foniche. Un altro esempio di queste pri- 
me reti è il sistema di allarme immediato 
per la difesa aerea. Queste reti sono es- 
senzialmente sistemi «dedicati» (cioè at- 
ti a svolgere un compito specifico) che 
richiedono un'interazione diretta tra gli 



utenti alquanto ridotta. (Nel sistema di 
prenotazione, l'interazione indiretta si 
ha comunque, per esempio a causa del 
numero limitato di posti disponibili su 
un aereo.) Le reti che intendo presenta- 
re, viceversa, sono quelle che consento- 
no un'interazione rapida e diretta fra 
molti utenti e molte macchine che devo- 
no assolvere compiti diversi. Malgrado i 
notevoli progressi fatti negli ultimi 10 an- 
ni nello sviluppo di tali sistemi, questo 
settore è ancora ai suoi primi passi. 

La connessione in rete non garantisce 
che le macchine siano messe in grado di 
svolgere qualunque compito, cosi come 
una rete telefonica intemazionale non è 
condizione sufficiente perché gli utenti 
facciano conversazioni interessanti. Le 
macchine devono essere in grado di 
comprendersi l'una con l'altra. Come 
nelle comunicazioni umane, il problema 
è tanto più difficile da risolvere quanto 
maggiori sono le differenze (di hardware 
e software) fra i sistemi connessi. 

Le reti di calcolatori non servono solo 
per comunicare programmi e dati con- 
venzionali. Per esempio, è possibile con- 
vertire la voce umana in forma numerica 
e memorizzarla per reperirla e utilizzarla 
in seguito. Una rete può essere dotata di 
un sistema di riconoscimento della voce 
che serva da controllo o che consenta 
l'immediato accesso ai programmi. In 
molti casi, l'utente può avere una rispo- 
sta dal calcolatore sotto forma di voce 
sintetizzata. Un documento può essere 
introdotto nel calcolatore come «facsi- 
mile elettronico» per essere incorporato 
con altri documenti, oppure trasmesso, 
archiviato o elaborato. Ingressi e uscite 
video, grafica e generazione di immagini 
possono anch'essi far parte delle presta- 
zioni interattive mediate da una rete. 

Le origini progettuali della connessio- 
' ne in rete vanno cercate nello svilup- 
po dei primi calcolatori in divisione di 
tempo (rimesharìng) all'inizio degli anni 



sessanta, quando i calcolatori erano co- 
stosi e poco diffusi. L'idea che sta alla 
base della divisione di tempo è semplice: 
dato che molti compiti, come lo sviluppo 
e la messa a punto di un programma, 
impegnano solo una piccola parte delle 
risorse di un grande calcolatore, risul- 
ta economicamente conveniente servire 
contemporaneamente più utenti anziché 
uno per volta. Ciò si ottiene passando di 
continuo da un programma all'altro a in- 
tervalli di pochi millisecondi. I salti sono 
gestiti da un particolare programma, il 
sistema operativo, che controlla e gesti- 
sce anche le apparecchiature periferi- 
che, come le stampanti, le unità a dischi 
magnetici e, in generale, l'allocazione di 
tutte le risorse della macchina. 

Dalla divisione di tempo alla con- 
nessione in rete il passo concettuale 
è stato breve. Una volta dimostrato 
che un gruppo di utenti relativamente 
piccolo poteva condividere un singolo 
calcolatore, veniva naturale chiedersi se 
una grande comunità di utenti sparsi sul 
territorio potesse ripartirsi le risorse - 
basi di dati e anche programmi specializ- 
zati - disponibili sui rispettivi calcolatori 
funzionanti in divisione di tempo, A par- 
tire da questa idea, la Advanced Re- 
search Projects Agency (arpa, attual- 
mente chiamata darpa) del Depart- 
ment of Defense statunitense iniziò nel 
1969 a collegare i centri di ricerca sparsi 
in tutto il paese tramite la rete di calco- 
latori arpanet. Quasi contemporanea- 
mente la Tymshare comprese l'impor- 
tanza economica di un'efficiente con- 
nessione in rete per facilitare le comu- 
nicazioni interattive fra terminali remoti 
e i suoi calcolatori in divisione di tem- 
po. La rete telefonica poteva anche con- 
sentire il collegamento fra calcolatori e, 
in effetti, veniva già largamente utilizza- 
ta per la connessione dei terminali a cal- 
colatori remoti. Le compagnie telefoni- 
che risposero alla richiesta emergente di 
reti di calcolatori su vasta estensione 



92 



riservando linee da punto a punto utiliz- 
zabili per scopi specifici nell'ambito del- 
le reti. 

La rete arpanet. costruita dalla Bolt, 
Beranek and Newman, Inc., fu la prima 
a essere realizzata per il collegamento 
interattivo fra calcolatori. Di conseguen- 
za fu necessario superare grossi ostacoli 
tecnici, il più consistente dei quali era la 
necessità di un nuovo sistema di commu- 
tazione a basso ritardo e a banda larga. 
Le reti telefoniche impiegano la tecnica 
della commutazione di circuito: ogni 
chiamata viene incanalata attraverso la 
rete lungo un percorso dedicato, o col- 
legamento , che le è riservato in esclusiva 
per tutta la durata della conversazione, 
come se i due interlocutori fossero col- 
legati direttamente con un loro circuito 
personale. Questa tecnica ha un difetto 
che chiunque faccia telefonate interur- 
bane può sperimentare: occorrono pa- 
recchi secondi per stabilire il collega- 
mento. Questo ritardo può essere irrile- 
vante nel caso di normali comunicazioni 
telefoniche, ma diviene intollerabile se 
inframmezzalo ai veloci scambi di dati a 
blocchi che avvengono spesso fra calco- 
latori. Una rete a commutazione rapida 
può ridurre il ritardo a una frazione di 
secondo , rendendolo tollerabile in molte 
situazioni. 

Anche in questo caso, tuttavia, un cir- 
cuito dedicato può rappresentare uno 
spreco di risorse. Per darne l'idea, si sup- 
ponga che una sorta di commutazione di 
circuito venga utilizzata per regolare il 
traffico stradale; se qualcuno volesse an- 



dare da New York a Washington, chie- 
derebbe di riservare una corsìa sulla In- 
terstate 95, chiudendola al resto del traf- 
fico. Ne risulterebbe un gran tratto di 
autostrada riservata, ma vuota. 

La soluzione sperimentata nella rete 
arpanet è una tecnica chiamata «com- 
mutazione di pacchetto». Con tale tec- 
nica le informazioni inviate da un cal- 
colatore all'altro non viaggiano in flus- 
so continuo lungo un circuito dedica- 
to. Ogni macchina è invece connessa a 
un nodo (che nella prima versione di 
arpanet era un minicalcolatore) che 
suddivide i messaggi provenienti dal cal- 
colatore in una serie di pacchetti di dati. 

Un messaggio contiene una sequenza 
qualsiasi di numeri binari, preceduta da 
informazioni di indirizzo, la cui lunghez- 
za complessiva non può superare quella 
massima permessa dalla rete. A ogni 
pacchetto viene aggiunta un'intestazio- 
ne contenente almeno l'indirizzo del 
pacchetto e un numero d'ordine, dopo- 
diché lo si avvia lungo la rete, che opera 
come una versione rapida del servizio 
postale: legge infatti l'indirizzo e «con- 
segna» il pacchetto a destinazione in una 
frazione di secondo. Non si hanno ritardi 
dovuti alla ricerca da parte dei commu- 
tatori di un circuito che colleghi il mit- 
tente al destinatario, per il semplice fatto 
che non non si stabilisce alcuna linea ri- 
servata. Di conseguenza non vi è neppu- 
re spreco di risorse. Una piccola percen- 
tuale della capacità di trasmissione della 
linea viene comunque utilizzata per le 
informazioni necessarie a instradare il 



pacchetto e per altre informazioni di 
controllo. 

In effetti, pacchetti successivi di un 
medesimo messaggio possono seguire 
vie diverse per raggiungere un'unica de- 
stinazione. Il cammino più rapido attra- 
verso la rete in un dato momento viene 
determinato congiuntamente dai nodi 
secondo un algoritmo di inst radamente 
dei messaggi. Ogni nodo è in grado di 
stimare la «distanza» fra la sua posizione 
e una qualunque destinazione della rete, 
tenendo conto delle linee inefficienti, 
dei nodi già occupati e così via. Le sti- 
me vengono aggiornate frequentemente 
(per esempio ogni mezzo secondo) e tra- 
smesse ai nodi adiacenti. In base a que- 
sta informazione, ogni nodo può instra- 
dare un pacchetto in arrivo alla tappa 
successiva del viaggio. Nella prima ver- 
sione di arpanet l'algoritmo di instra- 
damento lavorava senza conoscere la to- 
pologia e lo stato della rete nei suo com- 
plesso. L'algoritmo impiegato attual- 
mente distribuisce a tutti i nodi informa- 
zioni topologiche complete. 

Quando la comunicazione procede 
per brevi raffiche dì messaggi isolati, co- 
me avviene, per esempio, quando un 
utente invia comandi a un calcolatore 
mainframe remoto, la commutazione di 
pacchetto può condurre a un migliore 
utilizzo della capacità della rete. Dal mo- 
mento che la capacità di trasmissione 
non viene specificamente riservata a un 
determinato utente, gli «spazi vuoti» fra 
pacchetti successivi possono essere riem- 
piti con pacchetti di altri utenti diretti 




Nella Tase di progettazione di una rete su vasta estensione, vari livelli 
del sistema sono visibili contemporaneamente in finestre diverse. La 
carta grande mostra i calcolatori principali e i pad (assemblatori e 
disassemblatori di pacchetto) connessi a nodi detti commutatori di pac- 



chetto. La mappa dei Grandi Laghi mostra i singoli terminali collegati 
ai pad. Sulla mappa piccola degli Stati Uniti i commutatori di pacchetto 
sono collegati dalle linee di trasmissione. L'immagine è stata generata 
dal sistema esperto DESlGNct della BBN Communicatìon Corporation. 



93 



CENTRALE 
LOCALE 1 



CITTÀ A 



~> r 



CITTÀ B 



"N 



CENTRALE 
LOCALE 1 



AD ALTRI 
TELEFONI 




RETE DI CITTÀ 



RETE DI CITTÀ 



[.e reti telefoniche su lunga distanza impiegano la commutazione di circuito. Per ogni chiamata, 
viene stabilito un circuito riservalo fra i due telefoni (in colore). Parte della capacità di trasmis- 
sione del circuito deve essere riservata agli utenti per tutta la durata delia chiamata. 



verso la stessa destinazione o un'altra 
qualsiasi. In pratica, la commutazione di 
pacchetto attua una sorta di sistema di 
smistamento che consente in ogni mo- 
mento a tutti gli utenti di usare tutte le 
linee della rete. 

Per collegare un numero n di nodi in 
una rete a commutazione di pacchet- 
to occorrono, come minimo, n — 1 linee. 
Se si collegano le due estremità della rete 
con una linea addizionale, la topologia 
della rete diviene quella di un anello. È 
conveniente aggiungere all'anello alcuni 
collegamenti trasversali per ridurre l'in- 
fluenza di un guasto a un nodo o a una 
linea sul comportamento complessivo 
della rete. È possibile costruire una rete 
molto affidabile con un numero di linee 
di poco superiore a quello dei nodi. In- 
fatti la caduta di una linea non interrom- 
pe la comunicazione fra due nodi, come 
succede inevitabilmente in una rete a 
commutazione di circuito: i pacchetti 
vengono semplicemente instradati lungo 
una via diversa. Naturalmente la rete de- 
ve essere in grado di evitare o risolvere 
rapidamente le situazioni di congestione 
del traffico. 

Dal momento che ì pacchetti possono 
seguire cammini diversi, è possibile che 
essi non arrivino a destinazione nella se- 
quenza originaria. Dato che ciò è inac- 
cettabile per la maggior parte delle ap- 
plicazioni, i nodi di destinazione sono 
programmati per rimettere i pacchetti 
nel giusto ordine prima della «conse- 
gna». In questo modo alla ricezione del 
messaggio non vi è più traccia della sud- 
divisione in pacchetti. Anche il calcola- 
tore da cui parte il messaggio «non sì 
accorge» della tecnica di commutazione: 



esso assegna semplicemente l'indirizzo 
all'inizio del messaggio stesso. È il primo 
nodo della rete che provvede a fornire il 
medesimo indirizzo a tutti i pacchetti ìn 
cui viene spezzettato il messaggio. All'u- 
tente sembra dì impiegare un circuitode- 
dicato; la rete gli fornisce di fatto un «cir- 
cuito virtuale». 

L'idea di circuito virtuale ha le sue ra- 
dici nella «cultura telefonica». Eppure, 
per alcune applicazioni, gli abbonati alle 
reti sarebbero probabilmente più soddi- 
sfatti se il sistema fosse più conforme a 
un servizio di tipo postale, che non di 
tipo telefonico. Per esempio, se occorre 
trasmettere un'immagine da un calcola- 
tore all'altro e i dati vengono suddivisi in 
pacchetti, non ha alcuna importanza la 
sequenza in cui questi giungono a desti- 
nazione, a patto che essi contengano in- 
formazioni sufficienti a rimetterli in or- 
dine per ricostruire l'immagine desidera- 
ta. In questo caso i pacchetti possono 
venire «spediti» tramite rete come le let- 
tere mediante il servizio postale, con una 
differenza nei tempi di arrivo: pochi mil- 
lisecondi anziché pochi giorni. 

Da quando con arpanet si è dimo- 
strata la fattibilità di reti su vasta esten- 
sione a commutazione di pacchetto, ha 
avuto inizio l'offerta di numerosi servizi 
commerciali di tale tipo, fra i quali Te- 
lenet della US Sprint e tymnet della 
McDonnell Douglas negli Stati Uniti e 
una serie di reti in altri paesi, come pss 
nel Regno Unito. Tutte queste reti sono 
società di esercizio, operanti su linee 
commerciali dedicate con commutatori 
di pacchetto installati a cura dei gestori. 
e sono utilizzabili dal pubblico. La mag- 
gior parte di esse offre un servizio a cir- 
cuito virtuale. 



La progettazione dì una rete di comu- 
' nicazione deve tener conto delle di- 
stanze da coprire, del tipo di apparec- 
chiature alle quali dovrà venire connessa 
e delle applicazioni a cui è destinata. Nel 
caso di due o più nodi fisicamente vicini, 
il mezzo impiegato per la trasmissione 
sarà normalmente un bus ad alta velocità 
o una rete locale. Nel caso di reti su vasta 
estensione, si impiegheranno collega- 
menti a trasmissione multipla, con la re- 
lativa tecnologia di commutazione. 

Le reti locali sono ultimamente dive- 
nute di uso generale. Esse connettono 
due o più calcolatori che si trovano in un 
medesimo edificio o in edifici adiacenti 
e generalmente servono una singola or- 
ganizzazione. Non solo esse consentono 
ai membri di tale organizzazione dì 
scambiarsi messaggi e di accedere ai me- 
desimi programmi e basi di dati, come 
avviene con le reti su vasta estensione . 
ma, oltre a ciò, permettono a diverse 
stazioni di lavoro di condividere l'uso di 
apparecchiature costose, come i sistemi 
di memoria e le stampanti, il cui prezzo 
non è diminuito quanto quello dei calco- 
latori. Si stima che nel mondo siano or- 
mai installate parecchie centinaia di mi- 
gliaia di reti locali. Queste reti, che im- 
piegano per la trasmissione comuni cavi 
coassiali o coppie intrecciate di condut- 
tori anziché complessi sistemi di commu- 
tazione, funzionano generalmente «a 
pacchetti». Il riordino di questi, se ne- 
cessario, è compiuto dalla stessa macchi- 
na ricevente. 

Le due topologie più diffuse nelle reti 
locali sono quella ad albero . di cui Ether- 
net della Xerox Corporation è l'esempio 
più familiare, e quella ad anello, com- 
mercializzata dalla IBM Corporation 
con la denominazione token ring (una 
sequenza di bit, token, che circola lungo 
l'anello). Entrambe sono reti a pacchet- 
to. Ethernet consiste in un singolo cana- 
le, generalmente realizzato con un cavo 
coassiale, con connessi calcolatori , stam- 
panti e altri apparecchi. Ogni calcolatore 
viene connesso al cavo tramite un'inter- 
faccia che funge da trasmettitore e da 
ricevitore. Essa suddivide in pacchetti i 
messaggi provenienti dal calcolatore pri- 
ma di inviarli lungo il cavo e viceversa 
preleva dal cavo i messaggi in arrivo. 

Ethernet è una rete a emissione non 
direzionale: i messaggi inviati da un cal- 
colatore si propagano lungo il cavo in 
entrambe le direzioni. Può così sorgere 
un conflitto quando due macchine della 
rete trasmettono allo stesso tempo. Ogni 
interfaccia è perciò fornita di un sistema 
per individuare le collisioni di pacchetti, 
interrompere la trasmissione e ripren- 
derla dopo un breve intervallo. Ciò può 
produrre ritardi di trasmissione variabi- 
li. Il sistema funziona bene, ma può di- 
venire inefficiente per elevati traffici di 
trasmissione, quando il numero delle 
collisioni è troppo grande. Oggi le reti 
tipo Ethernet possono gestire un flusso 
di circa 10 milioni di bit al secondo. 

Anche le reti tipo token ring operano 



94 




a emissione non direzionale, ma control- 
lano l'accesso alla rete per mezzo di un 
segnale di via Ubera costituito da una 
breve sequenza di bit che circola in con- 
tinuazione lungo l'anello. Prima di tra- 
smettere dati, ogni interfaccia deve at- 
tendere il passaggio del segnale, quindi 
lo rimuove temporaneamente, inserisce 
un pacchetto debitamente indirizzato (di 
lunghezza massima definita) nell'anello 
e infine reinserisce il segnale in coda al 
pacchetto. Il pacchetto viene «preleva- 
to» dal destinatario prima che il segnale 
porti a termine un giro completo dell'a- 
nello. Non è quindi possibile che avven- 
gano col ti sion i ; t u tta via u n tra ffico i nte n - 
so può rendere meno frequente il pas- 
saggio del segnale, causando ritardi va- 
riabili nella trasmissione. 

Attualmente anche le reti tipo token 
ring possono trasmettere 10 milioni di bit 
al secondo. Reti sperimentali con colle- 
gamenti a fibre ottiche, nelle quali le in- 
formazioni sono codificate sotto forma 
di impulsi luminosi, anziché di segnali 
elettrici, hanno raggiunto velocità di tra- 
smissione di 100 e più milioni di bit al 
secondo. La tecnologia ottica potrebbe 
quindi estendere ulteriormente le poten- 
zialità delle reti locali. 

T a comunicazione fra calcolatori dello 
*-^ stesso tipo presenta naturalmente 
alcuni vantaggi, dato che il software dì 
sistema delle macchine collegate può es- 
sere lo stesso. Per far lavorare insieme 
calcolatori di tipo diverso occorre trova- 
re il modo di mascherare le differenze di 
hardware, per poter fornire a tutte i cal- 
colatori il medesimo ambiente software. 
Oggi, sebbene esistano ancora diverse 
barriere, sono stati fatti molti progressi 
nello sviluppo di tecniche per io scambio 
di dati fra calcolatori. Rimane il proble- 
ma dell'interscambio di software fra si- 
stemi eterogenei. 

I programmi scambiati fra calcolatori 
identici hanno in partenza maggiori pro- 
babilità di funzionare, perché le istruzio- 
ni fondamentali delle macchine sono le 
stesse ed è possibile corredarle con il me- 
desimo sistema operativo, per realizzare 
un ambiente software identico. Eppure, 
anche nel caso in cui un programma giri 
senza modifiche e senza che sia necessa- 



iri commutazione di pacchetto è stata svilup- 
pata per le reti di calcolatori. 11 calcolatore 
«mittente» spedisce un messaggio con indiriz- 
zo mi. Al primo nodo di commutazione (o al- 
l' interfaccia fra il calcolatore e il nodo) il mes- 
saggio viene suddiviso in pacchetti individual- 
mente indirizzati (b), che viaggiano indipen- 
dentemente lungo la rete. Ogni nodo «sceglie» 
il prossimo nodo che dovrà essere raggiunto 
dal pacchetto, tenendo conto delle informazio- 
ni ricevute dai nodi vicini sul traffico, i guasti 
di linea e così via. 1 pacchetti possono quindi 
seguire cammini diversi (ci e giungere in or- 
dine sparso al nodo dì destinazione (d'i. Questo 
li ridispone infine nell'ordine iniziale, prima 
di «consegnarli» al calcolatore ricevente (e). 



96 



rio procedere a una nuova compilazio- 
ne, la memoria del calcolatore di desti- 
nazione può risultare insufficiente. Per 
compilare un programma in un linguag- 
gio di aito livello una macchina può ri* 
velarsi adeguata e l'altra no. Le proba- 
bilità di successo nel trasferire e far gira- 
re un programma sono ragionevolmente 
elevate solo se i calcolatori hanno un 
identico ambiente software. 

Finora le funzioni più potenti di una 
rete sono state generalmente limitate a 
sistemi di calcolatori omogenei, gestiti in 
comune. Esempi di tali funzioni sono i 
sistemi di archiviazione decentrati (che 
consentono a una stazione dì lavoro un 
rapido accesso agli archivi, indipenden- 
temente dalla loro posizione nella rete) 
e i programmi trasferibili (che possono 
essere trasmessi lungo la rete fino ai cal- 
colatore sul quale verranno eseguiti). Al 
contrario, fra calcolatori eterogenei so- 
no in genere possibili solo interazioni 
alquanto semplici: scambio di messaggi 
o dati, esecuzione di un programma da 



un terminale remoto, e così via. Eppure 
l'eterogeneità è la regola nel campo dei 
calcolatori. Non è raro che nell'ambito 
di una stessa organizzazione si acquisti- 
no apparecchi da produttori diversi. Da 
qui nasce un forte incentivo a superare 
le barriere di comunicazione tra macchi- 
ne eterogenee. 

Vediamo un esempio molto semplice 
di tali barriere. Un calcolatore memoriz- 
za i dati in «parole» di 32 bit, mentre in 
un altro la lunghezza delle parole è di 16 
bit. Perché la comunicazione fra le due 
macchine sia possibile, il calcolatore che 
riceve i dati deve sapere come disporli in 
memoria. Dato che in entrambi i casi la 
parola è un multiplo intero di caratteri 
lunghi otto bit (byte), il compito è rela- 
tivamente semplice. Diviene più com- 
plesso quando un calcolatore con parole 
di 32 bit deve comunicare con un altro 
che utilizzi parole di 36 bit. In questo 
caso, alcuni byte devono essere spezzati 
a metà, oppure occorre lasciare spazi 
vuoti in memoria. Inoltre i dati non pos- 



sono essere trasmessi isolatamente, sen- 
za l'equivalente di una «lettera di pre- 
sentazione» che li descriva o comunque 
fornisca la chiave per interpretarli. 

Quando poi occorre trasmettere un 
programma, anziché semplici dati, è an- 
cora più importante fornire informazio- 
ni di contesto che ne consentano l'ese- 
cuzione. Contesto può significare l'inte- 
ro ambiente software entro il quale il 
programma deve girare, ivi compreso, in 
primo luogo, il sistema operativo. In li- 
nea di principio, si potrebbe trasmettere 
l'intero ambiente software insieme al 
programma, ma in pratica la cosa è di 
difficile realizzazione. Molti sistemi ope- 
rativi sono scritti per un hardware speci- 
fico e. in generale, non possono essere 
adattati a calcolatori di un costruttore 
diverso. Un sistema operativo come l'u- 
nix, scritto in un linguaggio di alto livel- 
lo, è adattabile a vari tipi di calcolatori, 
dato che i compilatori appropriati sono 
largamente diffusi. Tuttavia, è sempre 
necessaria qualche modifica per adattare 



CALCOLATORE 
PERSONALE 



CALCOLATORE 
DI SERVIZIO 
PER LA STAMPA 



STAZIONE 
DI LAVORO 

\ 



CALCOLATORE 

DI SERVIZIO 

PER LE COMUNICAZIONI 



CALCOLATORE 
\ 



CALCOLATORE 
PERSONALE 



SISTEMA DI STAMPA 
ELETTRONICO 



STAMPANTE 
A MARGHERITA 




UNITÀ 

DI ELABORAZIONE 

DELL'INFORMAZIONE 



CALCOLATORE 
DI SERVIZIO 
DIRETE 
PER LA STAMPA 



STAMPANTE 



CALCOLATORE 



UNITA DI ELABORAZIONE 
DI TESTI 



lina rete locale consente alle stazioni di lavoro poste all'interno di un 
edificio o di una zona ristretta di comunicare e condividere risorse. È 



qui raffigurata la rete Ethernet delia Xerox Corporation, the connette 
te macchine con cavo coassiale o con diversi cavi collegati da ripetitori. 



98 



l'UNlX alle caratteristiche di uno specifi- 
co calcolatore. Una soluzione potrebbe 
essere quella di adottare un '«architettu- 
ra di macchina virtuale» che consenta a 
calcolatori eterogenei di mascherare le 
differenze di hardware. Un'architettura 
standard a microistruzioni permettereb- 
be di «esplorare» vari tipi di architetture 
virtuali. 

Calcolatori diversi che lavorino insie- 
me costituiscono un sistema distribuito. 
Lo scambio delle informazioni di conte- 
sto fra le macchine implica la definizio- 
ne di una serie di protocolli che ogni cal- 
colatore deve rispettare rigorosamente 
perché le informazioni e il modo di in- 
terpretarle non siano equivocabili. Que- 
sti protocolli stanno ai sistemi distribuiti 
come i linguaggi di programmazione 
stanno al software. Essi consentono di 
definire l'architettura complessiva di un 
sistema e il modo di operare dei suoi 
elementi discriminanti. 

Un valido criterio per affrontare il 
problema, allo studio in lutto il mondo, 
sarebbe quello di creare un ambiente di 
comunicazione comune per sistemi di- 
stribuiti, convincendo i produttori di 
hardware e di software e i progettisti di 
reti ad aderire a protocolli industriali 
standard. 1 protocolli stabilirebbero una 
forma di architettura per comunicazione 
«aperta» nell'ambito della rete. 

T^a parecchio tempo Tlnternational 
-*-' Standards Organization è impegna- 
ta nella definizione di protocolli dì re- 
te che sì adeguino a un concetto chiama- 
to Open Systems Interconnection (OSI. 
connessione aperta fra sistemi). L'anali- 
si del problema ha portato a definire uno 
schema concettuale che suddivide le 
operazioni di una rete in sette livelli, 
ognuno dei quali deve essere associato a 
uno o più protocolli specifici. Per esem- 
pio, il livello più basso è quello fisico, 
che contiene specifiche per le convenzio- 
ni di segnalazione, per le velocità di tra- 
smissione e così via. Uno dei livelli più 
alti è quello di «presentazione», dove si 
decide come devono essere interpretati 
i dati per la loro presentazione. Un cal- 
colatore con il corretto software di tra- 
duzione sarà quindi in grado di «conver- 
sare» con altri calcolatori che usano un 
diverso formato per i dati, infine i pro- 
tocolli di livello più elevato servono fon- 
damentalmente a definire t tipi di mes- 
saggi che possono essere inviati tramite 
rete per applicazioni diverse. 

Le interazioni consentite dall'attuale 
architettura OSI sono limitate fondamen- 
talmente al trasferimento di dati. Essa 
non prescrive come i calcolatori collegati 
debbano collaborare per applicazioni di 
alto livello. Malgrado i suoi obiettivi li- 
mitati, anche se ambiziosi, non è stato 
facile attuare la strategia dell'architettu- 
ra aperta. Il problema sta essenzialmen- 
te nel fatto che le specifiche di protocollo 
sono inevitabilmente ambigue e vengo- 
no interpretate in maniera diversa dai 
vari produttori dì reti. Una sola differen- 




6*-° 



<e 






e 

Novità in libreria: 



Piero Scaruffi 

Intelligenza Artificiale 

Una "guida per il programmatore" che 
offre un panorama aggiornato dei temi 
dell'Intelligenza Artificiale, nell'ottica di 
chi lavora nell'industria, ma non di- 
mentica gli aspetti culturali dì uno dei 
settori più avanzati (e più affascinanti) 
della ricerca informatica. 
pp. 280, L 33.000 



Nella stessa collana: 

Alan Bundy 
L'automazione 
del ragionamento 
matematico 

pp. 425, L. 36.000 
Bertram Raphael 

Il computer che pensa 
pp. 446, L. 38.000 

Pamela McCorduck 

Storia 

dell'Intelligenza 

Artificiale 

pp. 418, L 42.000 
Peter B. Scott 

La rivoluzione robotica 

pp. 390, L. 36.000 



R. Forsyth e R. Rada 
Applicazioni 
delle macchine 
che apprendono 

Una rassegna dei principi e dei risultati 
dell'apprendimento automatico, con un 
esame di realizzazioni pratiche net 
campo dei sistemi esperti e in quello del 
recupero delle informazioni. 
pp. 360, L 40.000 



Alessandro Mazzetti 

Applicazioni 

dei sistemi esperti 

pp. 122, L. 17.000 



Se slete interessati al catalogo o all'acquisto 
di alcuni libri potete ritagliare la cedola e in- 
viarla a: Franco Muzzlo Editore via 
MaKallè 73 - 3S138 Padova (rinvio contras- 
segno sarà gravato da L. 2.000 di spese). 



titolo 

nome e cognome.. 



indirizzo.. 



J 

99 



za di interpretazione può essere (ed è 
stata) sufficiente per renderne incompa- 
tibili i prodotti. 

Nel 1985 è stata fondata da parte di un 
gruppo di produttori la Corporation for 
Open Systems (COS) per cercare di ri- 
solvere tali incompatibilità nell'adempi- 
mento dei protocolli osi. Tale organiz- 
zazione è l'equivalente di un laboratorio 
per il controllo di qualità. Il suo scopo è 
quello di sottoporre a esame i vari pro- 
dotti e munirli di un certificato di appro- 
vazione, quando risultino compatibili 
con altri prodotti già certificati. Ma le 
verifiche non possono ovviamente forni- 
re risultati assolutamente certi. Due pro- 
dotti che abbiano entrambi superato le 
verifiche COS possono ancora rivelarsi 
non perfettamente compatibili. Quindi, 
per poter accettare un prodotto con ra- 
gionevole sicurezza, occorre confrontar- 
lo con diversi altri già certificati. Per con- 
tro, l'ampia popolarità e diffusione negli 
Stati Uniti del protocollo di trasferimen- 
to TCPip (che ha preceduto il protocollo 
OSI) sono dovute alla garanzia data dal 
suo impiego in un gran numero di instal- 
lazioni verificate. 

Con il moltiplicarsi delle reti la «caco- 



fonia», vale a dire la disomogeneità, au- 
menta. Il problema della compatibilità 
riappare a un altro livello: non solo i cal- 
colatori appartenenti a una stessa rete 
devono «comprendersi» fra dì loro, ma 
anche le reti, a loro volta, devono poter 
comunicare. Infatti, spesso si ha la ne- 
cessità di collegare reti locali a reti su 
vasta estensione o di connettere fra di 
loro più reti locali. Ma le varie reti pos- 
sono differenziarsi fra loro per formato 
dei dati, lunghezza dei pacchetti, veloci- 
tà di trasmissione (in genere le reti locali 
sono più veloci), sistema di indirizza- 
mento e così via. 

Il protocollo originale arpa net era 
stato definito in base all'idea che la rete 
dovesse funzionare come una perfetta 
unità periferica di un calcolatore. Evi- 
dentemente oggi tale ipotesi non è più 
sostenibile, perché si sono resi disponi- 
bili molti nuovi tipi di rete, come quelle 
con trasmissione via radio, che non sem- 
pre sono in grado di «consegnare» tutti 
ì pacchetti spediti. 

La soluzione adottata dai ricercatori dei- 
la DARPA è consistita nello sviluppo di 
un'architettura inter-rete, che è stata 
ampiamente utilizzata nelle reti locali e 



E 




■e 












> 




1 


1 


^ 


L J 


1 


■Ih 








i 


< — ■ 


1 




e 




D 



uiiuiiiy 




A 




B 




C 




D 



Una caratteristica essenziale di Ethemel è la capacità di scoprire collisioni fra pacchetti. Dato 
che questi viaggiano in entrambe le direzioni lungo un cavo coassiale, due stazioni possono 
iniziare a trasmettere contemporaneamente. Per impedire confusioni, ogni stazione di Ethernet 
possiede un meccanismo per individuare collisioni. Nella sequenza illustrata, A comincia a 
trasmettere un pacchetto verso I) in un momento nel quale in rete non vi è traffico (/). Ma prima 
che il pacchetto giunga a C, questa stazione comincia a sua volta a trasmettere 12). 1 pacchetti 
si scontrano e, non appena C scopre la collisione, ferma la trasmissione (J). Poco dopo anche il 
pacchetto spedito da C giunge in .4. che smette a sua volta di trasmettere {</), Entrambe te stazioni 
attendono per un breve intervallo, di durala casuale, e poi provano a trasmettere di nuovo. 



anche largamente imitata. Il protocollo 
di interfaccia fra reti CCITT X.75 defini- 
sce un'interconnessione alternativa che 
presuppone un dispositivo a circuito vir- 
tuale fra le reti connesse. Viene impie- 
gato normalmente per connettere reti 
con velocità di trasmissione simile e 
quindi non richiede un canale di accesso 
(gateway) separato. 

L architettura ìnter-rete segue il proto- 
collo di trasporto tcp precedente- 
mente menzionato e prevede canali di 
accesso per collegare le reti. Il canale di 
accesso è un nodo particolare, il cui sco- 
po è quello di tradurre il testo dei mes- 
saggi provenienti da una rete nel forma- 
to richiesto da un'altra e viceversa. Esso 
si avvale di un protocollo inter-rete (IP) 
per interpretare gli indirizzi, suddividere 
ulteriormente i pacchetti, se necessario, 
e comunque facilitarne il trasferimento. 
Per esempio, se un pacchetto lungo 500 
byte giunge al canale di accesso di una 
rete che ammette pacchetti con lunghez- 
za massima di 250 byte, il canale deve 
tagliare in due il pacchetto, indirizzare 
entrambe le metà e instradarle a desti- 
nazione, possibilmente in maniera indi- 
pendente. I canali d'accesso possono co- 
municare con altri canali, formando così 
un sistema di comunicazione inter-rete 
in grado di trasmettere messaggi attra- 
verso reti diverse. OSI attualmente incor- 
pora anche IP per la comunicazione 
inter-rete. 

Lo sviluppo delle architetture ìnter- 
-rete si è basato sull'ipotesi che non do- 
vesse essere apportato alcun cambia- 
mento interno alle reti che dovevano ve- 
nire connesse. Ciò significava che i ca- 
nali di accesso dovevano avere le se- 
guenti proprietà fondamentali: la capa- 
cità di comunicare con altri canali, al fine 
di instradare i messaggi fra reti diverse, 
e quella di scambiare pacchetti di dati fra 
reti con diverse proprietà in teme ed 
esterne, quali la velocità di trasmissione, 
la lunghezza massima del pacchetto, i 
formati, i segnali di sincronizzazione e i 
messaggi di errore. 

Un settore in cui lo sviluppo di reti 
potrebbe avere grande importanza è 
quello dei sistemi di comunicazione e di 
calcolo portatili. Per quanto oggi la mag- 
gior parte delle esigenze sìa espressa da- 
gli ambienti di lavoro e domestici, esiste 
una significativa prospettiva di trasfor- 
mazione delle relazioni sociali con l'e- 
stensione ai mezzi mobili delle medesi- 
me possibilità dì comunicazione. Esisto- 
no già le basi tecnologiche per iniziare 
un'elaborazione in un luogo, continuarla 
magari in aereo tramite un calcolatore 
portatile e terminarla poi in luogo diver- 
so. Le comunicazioni già possibili con 
i radiotelefoni, le ricetrasmittenti che 
operano sulla banda civile (CB) e quelle 
dei radioamatori, oggi con possibilità di 
funzionare anche da telescrivente, offro- 
no un buon punto di partenza. A causa 
di varie limitazioni tecniche, come la 
propagazione per cammini multipli, è 



100 



difficile che la velocità di trasmissione da 
mezzi mobili possa superare pochi milio- 
ni di bit al secondo. Ciò è accettabile, 
dato che molte applicazioni importanti 
richiedono solo moderate quantità di 
calcolo e comunicazioni limitate. D'al- 
tro canto sono in corso di studio nuove 
applicazioni per servizi che offrano una 
maggiore velocità. 

L'aumento delia capacità delle reti è 
stato spesso motivato dalla necessità di 
servire un maggior numero di utenti. 
Benché le esigenze dei singoli utenti pos- 
sano rimanere circa costanti, la do- 



manda complessiva dell'utenza aumen- 
ta. È questa la spinta che ha fatto evol- 
vere il sistema telefonico analogico. Sin- 
goli canali per comunicazione vocale so- 
no stati riuniti in gruppi di canali e que- 
sti, a loro volta, sono stati aggregati a un 
livello più elevato. Analogamente, le 
singole richieste di trasmissione numeri- 
ca possono essere riunite dai gestori di 
reti o dagli utenti stessi. Questa possibi- 
lità è alla base della nascente Integrated 
Services Digital Network (isdn), che 
consentirà agli utenti di decidere come 
commutare i dati su uno o più circuiti. 



La possibilità di commutazione costitui- 
sce peraltro una sola dimensione del pro- 
blema della capacità. 

In futuro vi saranno mutamenti sostan- 
ziali nei servizi offerti dalle reti e nei 
costi. Tali cambiamenti saranno resi pos- 
sibili dalla grande espansione della capa- 
cità di trasmissione delle linee. Le tariffe 
di oggi si basano in gran parte sul costo 
dei singoli canali di trasmissione vocale. 
Se una linea può servire 24 canali vocali 
e il «grosso» dei profitti è legato alla ven- 
dita di questi, è ovvio che il prezzo verrà 




Un altro tipo di rete locale è il cosiddetto laken ring. L' accesso alla rete 
è controllato da un segnale di via libera itokeit) costituito da una se- 
quenza di bil che circola nell'anello. Per spedire un messaggio, una 
sta/ione deve attendere il passaggio del segnale, rimuoverlo, inserire 



nell'anello uno o più pacchetti con indirizzo e reinserire il segnale in 
coda a questi. I nu stazione ricevente può estrarre dalla rete i suoi 
pacchetti senza rimuovere il segnale. Neil' il lustrazione, A invia un mes- 
saggio a C. che lo riceve e quindi invia i propri messaggi ad A eaD. 



102 



fissato fra il costo di un canale e quello 
di 24. Con questa impostazione, i circuiti 
ottici risulteranno inaccessibili alla mag- 
gior parte degli utenti, se non si provve- 
derà a ristrutturare le modalità di deter- 
minazione delle tariffe. Ciò sarà possibi- 
le solo se il sistema di comunicazioni si 
evolverà in modo da raccogliere la mag- 
gior parte delle entrate con lince ad alta 
velocità, come quelle per trasmissioni vi- 
deo. Se i gestori potranno mantenere i 
profitti noleggiando un numero circa 
uguale di canali video e vocali, con tarif- 
fe di poco diverse, si porranno le basi per 
la trasmissione di dati ad altissima velo- 
cità. Non si tratta di una impresa da poco 
e la sua riuscita dipenderà dal sorgere di 
una domanda significativa di tali servizi. 

La prima rete arpanet, installata nel 
1969, utilizzava speciali linee dedicate ad 
alta velocità, in grado di trasmettere 
50 000 bit al secondo. La National Scien- 
ce Foundation (NSF) ha recentemente 
inaugurato la rete di supercalcolatori 
NSFNET, con una velocità di trasmissione 
simile. La NSF prevede di noleggiare in 
un prossimo futuro linee più velaci, per 
soddisfare le esigenze di comunicazione 
a lungo termine della comunità scienti- 
fica. Oggi sono disponibili linee funzio- 
nanti a 1 ,5 milioni di bit al secondo ed è 
stato introdotto da poco un servizio ope- 
rante a 45 milioni di bit al secondo. Que- 
ste velocità sembreranno pìccole quando 
verrà completato il rifacimento delle li- 
nee con fibre ottiche. In prove «sul cam- 
po» sono già state raggiunte velocità di 
trasmissione di più di un miliardo di bit 
al secondo e verso la fine del secolo si 
potranno raggiungere i IO miliardi di bit 
al secondo. La trasmissione in parallelo 
di segnali su diverse lunghezze d'onda 
potrà rendere possibile ed economica la 
trasmissione a velocità superiori ai 100 
miliardi dì bit al secondo. 

È facile immaginare ciò che si potrà 
fare con tali velocità di trasmissione. Si 
potrebbe trasmettere una grande base di 
dati ad altri calcolatori. Un supercalco- 
latore potrebbe inviare a stazioni di la- 
voro remote simulazioni dinamiche su 
video del tipo che sta diventando comu- 
ne nella ricerca scientifica. Fra uffici lon- 
tani si potrebbero trasmettere contem- 
poraneamente dati, immagini e voce. 

Quanta capacità di trasmissione ri- 
chiederebbero simili attività? In un ter- 
minale con uno schermo quadrato di 
1000 pixel (elementi di immagine) di la- 
to, ogni pixel, per un'immagine in bian- 
co e nero, è codificato in un bit. Tra- 
smettendo 30 immagini al secondo, così 
da ottenere una visione senza sfarfallio. 
il flusso di informazioni è di 30 milioni di 
bit al secondo. Le immagini a colori pos- 
sono richiedere 16 bit per pixel e quindi 
un'immagine a colori in movimento ri- 
chiede una velocità di trasmissione di 
480 milioni di bit al secondo. Quando 
saranno disponibili schermi di maggiori 
dimensioni, la velocità di trasmissione 
dovrà aumentare di un fattore 10 o an- 
che 100. Certamente la velocità neeessa- 



Reti italiane ed europee 

Tn Italia e in tutta Europa si è cominciato molto presto a sperimentare e a installare 
-1 reti di calcolatori, dopo l'acquisizione delle prime grandi macchine. Un lavoro 
notevole è stato condotto, per esempio, presso il Politecnico di Milano. Fra le prime 
reti importanti si annoverano il sistema di prenotazione dell' Alìtalia e alcune reti 
private bancarie. 

Oggi in Italia e in Europa sono in esercizio diverse grandi reti, pubbliche e private. 
Tutte le banche e le industrie di importanza nazionale o regionale hanno reti proprie, 
come le Ferrovie nazionali e le compagnie aeree. Nel nostro paese è installata da 
qualche anno la rete pubblica 1TAPAC a commutazione di pacchetto, con massima 
velocità di trasmissione di 72 000 bit al secondo. È meno usata delle consorelle 
inglese, francese e tedesca. Quest'ultima ha una capacità circa 20 volte maggiore di 
iTAPAC e la rete francese, che può trasmettere a due milioni di bit al secondo, è 
entrata in crisi una volta, l'anno scorso, con un traffico circa 50 volte maggiore di 
quello della nostra rete. 

L'uso intenso delle reti pubbliche è connesso, fra l'altro, alla consultazione di 
banche dati di interesse nazionale e internazionale, che rappresenta oggi una vera 
industria. In Italia vengono interrogate più frequentemente le banche giuridiche 
della Corte di Cassazione, quelle bancarie e quelle di dati tecnici e scientifici dell'E- 
SA (European Space Agency), a Frascati; pochissime, complessivamente, rispetto 
a quelle disponibili all'estero. 

Le reti nazionali europee sono connesse fra di loro tramite la EURONETe collegate 
direttamente via satellite con le reti statunitensi, consentendo così lo scambio di 
informazioni e l'accesso a banche dati in tutto il mondo. 

In ambito scientifico, sono attive in Italia la rete del Consiglio nazionale delle 
ricerche (CNR), quella dell'Istituto nazionale di fisica nucleare (INFN) e, di fatto, 
anche quella universitaria. È attivo infatti il collegamento fra i grandi centri di Milano 
(C1LEA). Bologna (CINECA) e Bari (CSATA), ai quali sono connesse, con po- 
chissime eccezioni, tutte le università. Questi centri sono collegati a loro volta alle 
reti dell'I NFN e del CNR, a rTAPAC, alla European Academic and Research Network 
(F.AUN) e, tramite il centro CNR di Pisa (CNUCE), alla equivalente statunitense 
BITNET (BIT sta per Because It's Time, «era ora che si facesse»)- Queste reti consen- 
tono lo scambio rapido ed economico dì dati e messaggi fra ricercatori di tutti i paesi, 
funzionando come un sistema di posta elettronica, con caselle postali riservate. Pur- 
troppo centri e rete universitari soffrono spesso di problemi economici, che si spera 
di risolvere con l'unificazione delle fonti di finanziamento presso il Ministero per la 
ricerca scientifica e l'università. Per coordinare la gestione e l'acquisizione di nuove 
risorse i tre centri universitari, il CNR, l'INFN e l'ENEA pensano oggi a un «gruppo 
di armonizzazione delle reti per la ricerca» sotto l'egida del suddetto Ministero. 

Con l'introduzione dei cosiddetti superminicalcolatorì, che hanno reso disponibi- 
le, a costi ragionevoli, una notevolissima potenza di calcolo ampiamente decentrata 
e facilmente gestibile, molti ritenevano che i grandi centri e le relative reti avrebbero 
perso la loro importanza. In realtà da un iato questi si sono evoluti acquisendo 
macchine sempre più potenti e gestendo banche dati sempre più grandi mentre, 
dall'altro lato, la diffusione dei calcolatori personali, con la loro facile collegabìlità, 
ha creato una notevole massa di utenti che hanno imparato ad apprezzare i servizi 
dei grandi centri. Ciò ha fatto lievitare anche in Italia la richiesta di collegamenti 
grandi e piccoli. Enti locali, consorzi di esercenti, farmacisti e altri gruppi omogenei 
si sono infatti riuniti per sfruttare risorse comuni. Le reti locali proliferano in Italia 
come in tutti gli altri paesi. Si valuta che nel 1987 il numero dei nodi installati in 
Europa fosse poco meno di 150 000. Solo in Italia, alla fine dell'anno scorso, risul- 
tavano installati circa 19 000 nodi (dei quali 14 800 venduti nel solo 1986), configurati 
in diverse migliaia di reti omogenee ed eterogenee, spesso aperte verso l'esterno con 
canali di accesso verso grandi macchine o altre reti, (F. Celentano) 



ria potrà essere un po' inferiore grazie a 
tecniche di compressione dell'immagi- 
ne. Ciò non toglie che vi siano molte 
applicazioni possibili per l'alta capacità 
di trasmissione delle fibre ottiche. 

Questo risulta più evidente quando si 
consideri la funzione dei calcolatori. Essi 
non dispensano semplicemente informa- 
zioni: possono elaborare le informazioni 
memorizzate e anche inferirne conse- 
guenze. Ma «ragionare» su un'immagine 
può richiedere molte informazioni oltre 



a quelle già contenute nell'immagine 
stessa e tali informazioni contestuali de- 
vono pure essere trasmesse con l'imma- 
gine. Ciò è vero anche per informazioni 
che non sono in forma di immagini. 
Quello che ci si aspetta dalle fibre otti- 
che, per la tecnologia delle reti, è che si 
realizzino i livelli di flusso di informazio- 
ni necessari per raggiungere l'obiettivo 
ultimo, perché cioè il calcolatore possa 
collaborare «intelligentemente» alla so- 
luzione dei problemi dell'uomo. 



103 



IrffiìBHil 




. 




l - .-- 1 •■".*.■-..■ 


;7 V -";, -- r ,' " \ . ■ 


' ' ■ A "» . & -.,...•:/' ■' ■ ■'"": 9 % 


- ■ •« • 




-;^r-- afe 


1 ' ,V * ■ '" E w% ',' "".■"- 


S ■;, ! " ' ( - SS \, '■ !•'-'.! 


l 'wUt£jtfe*''--^^' w *'*/v 


w |lta - : ,\ '-'.-' . ■ ' 


■•r%.vV~ | V' ■ 


'-$&.■:,:_ Ì&3S3HI 


S II E "' -^MhB^^ : "Jv! 


Sovrani i !1 


lK?!& * v*^ Hft^igBBM 


^flUi ,-..■ • . V i 


■ 1 HÌBk/ * 


w^SEK 9 




-V"V>. -■" k éjC ■",.-., .*■ .*■; kj 


■v*V^Qv^>^-4 ' * ri ** ',** ■* ,*ì 


Tigg h." . Nfioi 


■V ■' " j * * -' . t ' .-' "-- ■ 


.>■ - ■. Ss ■ ".'•'•• 


■ -.-■ . - ■ ■■■■ • - -. > .... • v' > •• J ■• 


V ,'.:.-•-;..■, --v-.v 

* ■ , . EQ • i 

l ■'.;; . ■ •-'■-.--, 




:•■'"■- £T Bri 

■ ;> ■. . .... fcd .• 5 






Elaborazione avanzata 
per la scienza 

Simulazioni raffinate, veri e propri esperimenti al calcolatore, permettono 
di controllare le previsioni teoriche dell'evoluzione di sistemi complessi 
come le galassie e aprono nuove prospettive all'indagine scientifica 

di Piet Hut e Gerald Jay Sussman 



L elaborazione ad alta velocità sta 
modificando radicalmente il no- 
J stro modo di condurre la ricerca 
scientifica. Il metodo tradizionale com- 
porta la cost ruzione di modelli ideali . sui 
qualii ricercatori si basano per fare pre- 
visioni da verificare tramite osservazioni 
o esperimenti. È difficile formulare sem- 
plificazioni valide per sistemi complessi 
senza correre il rischio di ottenere risul- 
tati privi di significato, perché alcuni dei 
fenomeni più importanti possono scatu- 
rire dalla combinazione odali 'amplifica- 
zione imprevista di piccoli effetti. 

Oggi i calcolatori consentono di af- 
frontare con successo tali fenomeni, che 
vanno dalla diffusione dei portatori di 
carica in un semiconduttore alle collisio- 
ni fra galassie contenenti milioni di stel- 
le. Mettendo a punto modelli di sistemi 
di questo tipo, diventa possibile elabo- 
rare le conseguenze di teorie semplici in 
situazioni complesse. Inoltre, a patto di 
dedicare al calcolo un tempo sufficiente, 
è possibile determinare le conseguenze 
di una teoria senza dover ricorrere ad 
approssimazioni o a semplificazioni di- 
scutibili. Una simulazione accurata al 
calcolatore consente di effettuare misu- 
razioni sperimentali , più o meno come si 
fa in laboratorio; ma essa risulta vera- 
mente preziosa nel caso di esperimen- 
ti irrealizzabili per misurare parametri 
inaccessibili alla sperimentazione o al- 
l'osservazione. Per esempio, dato che la 
legge della gravitazione universale è 
ben conosciuta ed esistono modelli al 



calcolatore precisi del sistema solare, si 
può determinare quale sarebbe l'orbita 
della Terra se Marte non esistesse, 

I teorici sono stati spesso costretti a 
compiere semplificazioni eccessive per 
poter calcolare conseguenze approssi- 
mative confrontabili con il mondo reale. 
L'aumento della potenza di calcolo a di- 
sposizione degli scienziati ha per effetto 
la progressiva perdita di importanza di 
questi metodi rìduzionisttei in favore 
della cosiddetta «analisi sintetica». L'im- 
postazione sintetica è necessaria quando 
le modalità fondamentali delle interazio- 
ni fra le parti di un sistema sono note, 
ma non lo è la configurazione particola- 
reggiata del sistema. Si può cercare di 
determinare la configurazione incognita 
tramite sintesi, passando cioè in rasse- 
gna le possibili configurazioni e calcolan- 
do le conseguenze di ciascuna di esse. 
Confrontando con cura le caratteristiche 
osservabili delia situazione sperimentale 
con le conseguenze calcolate, si può sce- 
gliere la configurazione che meglio giu- 
stifica le osservazioni. 

Un famoso esempio di impostazione 
sintetica fu il tentativo compiuto nel se- 
colo scorso di trovare la causa delle per- 
turbazioni osservate nell'orbita di Ura- 
no. Gli studiosi inserirono un pianeta 
ipotetico nel sistema solare e ne fecero 
variare i parametri orbitali fino a ottene- 
re una ricostruzione soddisfacente delle 
perturbazioni. Questa ricerca ebbe co- 
me risultato diretto la scoperta di Nettu- 
no, che fu trovato in prossimità della po- 



Questa sequenza di immagini al calcolatore è la simulazione di una collisione Ira due galassie 
a spirale; quella in basso a destra presenta evidenti somiglianze con la coppia di galassie intera- 
genti NGC 4038 e NGC 44)39, nella costellazione del Corvo. 1 punti in giallo rappresentano il 
rigonfiamento centrale delle due galassie e quelli in blu il disco galattico, t punti in rosso indi- 
cano l'alone dì materia oscura che non è visibile, ma si manifesta attraverso i suoi effetti 
gravitazionali. I .i simulazione, che abbraccia un periodo di circa mezzo miliardo di anni, è sta- 
ta effettuata da Joshua Barnes dell' Instilute Cor Advanced Snidj della Princeton University, 



sìzione prevista. In passato, l'imposta- 
zione sintetica veniva adottata solo per 
situazioni relativamente semplici, ma 
oggi, grazie ai calcolatori ad alta veloci- 
tà, i metodi sintetici hanno occupato una 
salda posizione accanto ai metodi tradi- 
zionali dell'analisi riduz tonisi ica. 

T 'analisi sintetica ha di recente aper- 
*-* to nuove prospettive in un settore 
tradizionale dell'astrofisica, la dinamica 
gravitazionale; infatti, in questo campo 
la grande velocità dei calcolatori odierni 
ha consentito ai ricercatori di affrontare 
problemi che hanno a lungo resistito ad 
altre impostazioni. 

Su grande scala, l'universo è popolato 
da sciami di galassie, alcune relativa- 
mente isolate, altre concentrate in am- 
massi e in superammassi. Ciascuna ga- 
lassia comprende un enorme numero di 
stelle e immense quantità di gas e di pol- 
vere. Le distanze fra le stelle di una ga- 
lassia sono così grandi rispetto al loro 
diametro che le collisioni fra di esse sono 
rarissime, sebbene, di norma, le loro ve- 
locità relative siano dell'ordine delle de- 
cine o delle centinaia di chilometri a! se- 
condo. Su scala maggiore, le collisioni 
fra galassie sono più frequenti, perché le 
distanze fra di esse sono soltanto lOo 100 
volte maggiori del loro diametro. Su sca- 
la ancora più grande, gli ammassi di ga- 
lassie sono separati da distanze dell'or- 
dine del loro diametro; le interazioni fra 
ammassi di galassie richiedono tempi pa- 
ragonabili all'età attuale dell'universo e 
quindi non possono essere studiate come 
eventi isolati. 

Le collisioni fra galassie sono eventi 
fra i più spettacolari dell'universo. Il pa- 
norama celeste che osserviamo attraver- 
so i telescopi ci mostra numerosi esempi 
di queste interazioni violente. Vi sono 
coppie di galassie vicine che appaiono 
col legate da «ponti». Mentre la maggior 
parte delle galassie ha una configurazio- 

107 




t ii.i collisione tra galassie venne .simulala in un classico esperimento al 
calcolatore effettualo* all'inizio degli anni settanta, da Alar Toomre 
del Massachusetts Institute of Technology e da Juri Toomre. che allora 
lavorava alla New York University. La simulazione ricostruisce l'in- 



contro tra la galassia Vortice (NGC 5194, ovvero M51> e la galassia 
NGC 5195. In base a un'approfondila analisi dei dati osservativi allo- 
ra disponibili, ì fratelli Toomre stabilirono svariate condizioni ini- 
ziali e, per ciascuna di esse, costruirono una sequenza di «istantanee*. 



-£*' \V- 




Ih 







Una delle sequenze ottenute Torni un'immagine (2) che rassomiglia 
molto alla configurazione osservala al telescopio delle due galassie. Le 
due file di disegni corrispondono allo slesso evento visto sotto angola- 
zioni diverse; l'intervallo tra due istantanee successive è di 100 milioni 



di anni. Questo esperimento al calcolatore ha dimostrato che il ponte 
che sembra collegare M5I e NGC 5195 e in realtà un'illusione prospet- 
tica. Al momento attuale, NGC 5195 ha ormai oltrepassalo completa- 
mente M51 e l'interazione tra le due galassie è da tempo terminata. 



ne a spirale più o meno simmetrica o una 
semplice forma sferica o ellissoidale, 
quelle che appaiono coinvolte in collisio- 
ni sono spesso deformate o irregolari. 
Negli anni cinquanta fu avanzata l'ipo- 
tesi che le deformazioni nelle galassie in- 
teragenti fossero dovute alle forze gravi- 
tazionali che esse esercitano l'una sull'al- 
tra. Negli anni sessanta si diffusero ipo- 
tesi più ricercate, che invocavano campi 
magnetici ed eventi esplosivi. La sempli- 
ce spiegazione gravitazionale veniva ri- 
fiutata per la difficoltà di dimostrare co- 
me interazioni puramente gravitazionali 
potessero dar luogo a forme sottili e al- 
lungate , come le code e i ponti complessi 
e ricchi di dettagli che fuoriescono da 
coppie di galassie interagenti e che tal- 
volta le collegano. 

All'inizio degli anni settanta. Alar 
Toomre, del Massachusetts Institute of 
Technology, e Juri Toomre, allora alla 
New York University, misero a punto il 
primo modello sistematico di interazioni 
fra galassie. I loro risultati furono sor- 
prendenti: ricorrendo solo a forze gravi- 
tazionali, riuscirono a riprodurre le for- 
me osservate in numerosi sistemi di ga- 
lassie interagenti. I fratelli Toomre ri- 
ducevano per approssimazione il campo 
gravitazionale dì una galassia al campo 
di una massa puntiforme situata nel suo 
centro; il disco galattico, che in real- 
tà contiene molte decine di miliardi di 



stelle, comprendeva, nella loro simula- 
zione, solo qualche centinaio di particel- 
le che si spostavano nel campo gravita- 
zionale della galassia modello senza dar- 
vi alcun contributo. Nonostante queste 
rozze approssimazioni, i ricercatori sco- 
prirono che la simulazione dell'incontro 
di due galassie può dar luogo a una sba- 
lorditiva varietà di appendici, di forma 
sovente laminare o nastriforme. Viste di 
taglio, queste appendici assumono effet- 
tivamente l'aspetto di alcune di quel- 
le strutture esili e allungate che ave- 
vano spinto altri astronomi a fare appel- 
lo a complicati effetti di confinamento 
magnetico. 

La ricerca svolta dai fratelli Toomre è 
un chiaro esempio di come dalla impo- 
stazione sintetica si ottengano informa- 
zioni nuove. La successione di «istanta- 
nee» al calcolatore riportata in queste 
due pagine, per esempio, dimostra che 
il filamento che sembra collegare la ga- 
lassia Vortice (NGC 5194, ovvero M51 ') 
con NGC 5195 in realtà non è affatto un 
ponte. Il collegamento è solo un effetto 
di proiezione provocato dalle posizioni 
apparenti delle due galassie. 

Molti problemi fisici risultano ancora 
troppo complessi per essere affrontati 
con la sintesi diretta di un modello onni- 
comprensivo, ma un'impostazione a due 
stadi , che parta dalla simulazione di parti 
microscopiche di un grande sistema, può 



essere una valida alternativa. I meto- 
di sintetici danno spesso informazioni 
quantitative sul comportamento statisti- 
co di componenti molto piccole di un 
sistema macroscopico. Si può poi utiliz- 
zare un modello di livello superiore, in 
cui gli andamenti statistici ricavati ven- 
gono combinati, come blocchi da costru- 
zione, per prevedere il comportamento 
del sistema nel suo complesso. 

Un problema che supera le possibilità 
dei calcolatori odierni, per esem- 
pio, è la costruzione di un modello par- 
ticolareggiato dell'evoluzione di un am- 
masso stellare che comprenda un milio- 
ne di stelle (come alcuni degli ammassi 
globulari che orbitano in tomo alla no- 
stra galassia). Si è visto che è possibile 
ottenere valide informazioni sugli am- 
massi adottando un'impostazione che 
potremmo definire a scala ridotta, in cui 
cioè vengono studiate le interazioni fra 
una stella singola e una doppia (una cop- 
pia di stelle legate gravitazionalmente). 
Calcolare con carta e matita l'intera- 
zione gravitazionale di due stelle o pia- 
neti è facile. Quando, tuttavia, si passa 
all'interazione di tre corpi, le equazioni 
del moto diventano non trattabili con i 
mezzi di cui disponiamo attualmente. 
Che cosa accade, per esempio, quando 
una stella singola entra in collisione con 
una stella doppia? Fino a quando la stel- 



la singola è lontana, le due stelle che 
Formano la coppia si muovono lungo 
un'orbita ellittica non perturbata. Se la 
terza stella passa a breve distanza dalla 
stella doppia si hanno perturbazioni or- 
bitali; se invece la stella singoia penetra 
all'interno del sistema della stella dop- 
pia, l'incontro può essere ancora più 
complicato. 

L'esito finale di un evento del genere 
può appartenere a tre tipi qualitativa- 
mente distinti. Se ne derivano tre stelle 
isolate e senza legami reciproci, per ana- 
logia con la fisica atomica, si può dire che 
la stella doppia è stata «ionizzata». In 
alternativa, il risultato dell'incontro può 
essere ancora una stella doppia e una 
singola. Se il nuovo sistema binario è 
costituito dalla stella singola «intrusa» e 
da una delle due componenti della cop- 
pia originaria, si può pensare che sia av- 
venuta una reazione di scambio, mentre 
se le due stelle della coppia risultante 
sono ancora quelle iniziali, l'evento vie- 
ne definito passaggio ravvicinato. Tal- 
volta, quando l'incontro è quasi fronta- 
le, la stella singola può essere tempora- 
neamente catturata dalla stella doppia. 
Il sistema di tre corpi che ne risulta può 
avere una vita molto lunga (relazioni in- 
stabili che si conservino per centinaia o 
migliaia di periodi orbitali non sono ra- 
re), ma alla fine si scompone di nuovo in 
una stella singola e in una doppia. 



L'esito dipende dalle condizioni ini- 
ziali. Una leggera variazione della velo- 
cità o dell'orientazione dell'incontro è 
sufficiente a modificare radicalmente la 
complicata danza dei tre corpi e non è il 
caso di pensare a una descrizione anali- 
tica di questo comportamento. 

I parametri necessari per descrivere le 
condizioni iniziali in questi esperimenti 
di diffusione sono nove, un numero 
troppo grande per consentire un'indagi- 
ne sistematica di tutte le combinazioni 
possibili. Il legame tra valori esatti dei 
parametri ed esito degli esperimenti è 
estremamente complesso. Anche tenen- 
do costanti sette parametri e variandone 
solo due si ottiene un quadro tutt'altro 
che semplice {si veda la parte inferiore 
dell'illustrazione a pagina I IO), 

Un metodo per ottenere informazioni 
quantitative sui processi di diffusione a 
tre corpi è quello di simulare un gran 
numero di singoli esperimenti di diffu- 
sione e di analizzarne i risultali per via 
statistica. Alla maggior parte dei para- 
metri sono assegnati valori casuali scelti, 
però, rispettando opportune limitazioni 
che facciano rientrare gli esperimenti 
nell'ambito dei fenomeni astrofisici in 
oggetto. Quando sia stato effettuato un 
numero sufficiente di esperimenti, le in- 
certezze introdotte da questo metodo di 
scelta delle condizioni iniziali, il metodo 
di Montecarlo, diventano così piccole 



che si [vssoni' trarre conclusioni interes- 
santi sull'esito medio di esperimenti di 
diffusione a tre corpi. 

"Derché gli astronomi sono interessati a 
-*- questo tipo di collisioni? La risposta 
sta nel fatto che in un'interazione a tre 
corpi si ha trasferimento di energia dalla 
stella doppia, la cui orbita si contrae, alla 
stella singola, con il risultato di «riscal- 
dare» le stelle circostanti. Questo feno- 
meno è analogo alla fusione nucleare, il 
processo che fa splendere il Sole e le al- 
tre stelle, in cui i nuclei atomici entrano 
in collisione e si fondono in nuclei più 
pesanti liberando energia. 

La contrazione orbitale della stella 
doppia, prodotta dagli incontri, può «ri- 
scaldare» il nucleo di ammassi stellari 
densi, compensando le perdite che av- 
vengono nelle zone periferiche dalle 
quali molte stelle sfuggono come schizzi 
da una pentola in ebollizione. Per co- 
struire modelli particolareggiati di am- 
massi globulari, è necessario conoscere 
il comportamento statistico degli incon- 
tri fra stelle singole e doppie. Così come 
le velocità delle reazioni nucleari sono 
un elemento essenziale nel calcolo della 
struttura e dell'evoluzione delle stelle, 
anche le velocità delle reazioni gravita- 
zionali fra stelle sono fondamentali nel 
calcolo della struttura e dell'evoluzione 
degli ammassi stellari. 



108 



109 



Il problema di determinare la velocità 
delle reazioni gravitazionali è simile a 
quello che si affronta in fisica per ricava- 
re la velocità di una reazione nucleare. 
Un fascio di nuclei veloci può essere di- 
retto contro una lastra bersaglio conte- 
nente nuclei di tipo diverso. Contando il 
numero delle interazioni, misurando le 
loro proprietà ed effettuando un'analisi 
statistica dei dati . è possibile descrivere 
il comportamento medio manifestato da 
due nuclei durante una collisione. 

La velocità delle reazioni gravitazio- 
nali può essere misurata in maniera simi- 
le, effettuando un «esperimento al cal- 
colatore». Uno di noi (Hut) ha parteci- 
pato a un progetto di studio della dina- 
mica di ammassi stellari che utilizzava 
una descrizione statistica delle diffusioni 



a tre corpi. Fra I' altro, il progetto richie- 
deva l'esecuzione di milioni di esperi- 
menti di diffusione a tre corpi con il me- 
todo di Montecarlo, in cui sette parame- 
tri venivano mantenuti costanti e due ve- 
nivano fatti variare, in modo da ottenere 
un rilevamento statistico completo. 

L esperimento dì diffusione a tre corpi 
è stato effettuato senza problemi 
con i mezzi di calcolo a disposizione: un 
calcolatore VAX 11/7KU della Digital 
Equipment Corporation che ha impiega- 
to meno di un anno di tempo macchina. 
Nel caso delle galassie è molto più diffi- 
cile simulare un analogo esperimento di 
diffusione. Analogamente a quanto si fa 
in fisica delle particelle, dove si studiano 
le tracce prodotte nelle collisioni di ato- 



mi e particelle subatomiche per avere in- 
formazioni sulla struttura, si utilizzano 
gli incontri fra galassie per ottenere im- 
portanti indicazioni sulla natura e sulta 
distribuzione della materia nell'univer- 
so. È sconcertante che, sebbene negli ul- 
timi decenni le nostre conoscenze sull'u- 
niverso si siano notevolmente ampliate, 
ancora non si sappia quale ne sia il costi- 
tuente più diffuso. Le stelle, i gas e la 
polvere, visibili oppure rilevabili con i 
radiotelescopi e con i telescopi a raggi 
infrarossi, X e gamma, costituiscono so- 
lo una piccola frazione dì tutta la materia 
dell'universo. La natura della materia 
invisibile resta uno dei problemi fonda- 
mentali e irrisolti dell'astrofisica. 

Prove di natura dinamica sembrano 
dimostrare che la maggior parte delle ga- 




FASE OfìBrTALE 

I IONIZZAZIONE UPASSAGG10 3 SCAMBIO (CON UN MEMBRO DELLA STELLA DOPPIA) 
RAVVICINATO 



SCAMBIO (CON L'ALTRO MEMBRO 
DELLA STELLA DOPPIA] 



L'incontro fra una .stella «ingoia e una stella doppia è un evento com- 
plesso, come mostra la simulazione al calcolatore in alto a sinistra. 
Sarebbe vano calcolare con carta e matita questi eventi di diffusione a 
tre corpi, ma si possano ricavare le linee Fondamentali del processo 
trascurando ì particolari e classificandone solo l'esito rinate, come si 
studiano i fenomeni di diffusione dì particelle in fisica atomica. In que- 
sto caso, gli esiti possibili sono tre {in allo a destrat. In un passaggio 
ravvicinato, il sistema delta stella doppia resta intatto, anche se i suoi 
parametri orbitali possono modificarsi. In una reazione di scambio, la 



stella singola sostituisce uno dei membri della coppia. In una reazione 
di ionizzazione, il sistema delta stella doppia è scisso e ne risultano tre 
stelle singole. 1 parametri necessari per descrivere le condizioni iniziali 
in questi esperimenti di diffusione sono nove, troppi per consentire un 
esame sistematico di tutte le combinazioni possi bili. Nel grafico in basso, 
che riassume l'esito di olire lltiMI esperimenti di diffusione, sette para- 
metri sono tenuti costanti facendone variare solo due: il parametro 
d'urto (il punto di massimo avvicinamento della stella sìngola alla stella 
doppiai eia fase orbitale ila posizione relativa dei membri della coppia). 



110 



lassie contiene grandi quantità di mate- 
ria oscura. In una tìpica galassia a spirale 
le stelle del disco orbitano intorno a un 
centro comune. Secondo la legge della 
gravitazione universale, se la materia 
che si trova fra una determinata stella del 
disco e il centro fosse solo quella visibile. 
Sa velocità orbitale della stella dovrebbe 
decrescere rapidamente all'aumentare 
della distanza dal centro. In realtà, come 
è stato dimostrato attraverso un gran nu- 
mero di misurazioni, la velocità di rota- 
zione delle galassie a spirale non decre- 
sce con l'aumentare deila lontananza dal 
centro, anzi resta più o meno costante 
fino a una distanza notevole. La costan- 
za della velocità di rotazione implica che 
la maggior parte della massa galattica 
non sia visibile e che questa materia 
oscura occupi un ampio volume di spazio 
intorno alle strutture visibili. 

Le collisioni fra galassie consentono di 
studiare la distribuzione della materia 
oscura in quanto la configurazione degli 
«schizzi» che si producono durante la 
collisione ne evidenzia il campo gravita- 
zionale. In effetti è come se una «vernice 
stellare» rendesse visibile la materia 
altrimenti invisibile. 11 problema di in- 
terpretare queste configurazioni può es- 
sere affrontato mediante un gran nume- 
ro di simulazioni al calcolatore. In que- 
sto caso le incognite sono la quantità e 
la distribuzione della massa in ogni sin- 
gola galassia. Con una potenza di calcolo 
sufficiente e disponendo di programmi 
adeguati, si potrebbero simulare molte 
collisioni, ciascuna con differenti para- 
metri e distribuzione di massa. SÌ potreb- 
be poi valutare quali configurazioni sia- 
no più somiglianti a quelle osservate nel- 
la realtà. Se i modelli fossero abbastanza 
sensibili, si potrebbero allora ricavare le 
masse incognite e la loro distribuzione. 

Una galassia media ha circa 100 mi- 
liardi di stelle, ognuna delle quali è lega- 
ta a tutte le altre da interazioni gravita- 
zionali. 11 calcolo delle interazioni di 
un numero così elevato di particelle è 
un'impresa che supera le possibilità di 
tutti i calcolatori oggi prevedibili. D'al- 
tra parte, il comportamento di un siste- 
ma di questo tipo può essere approssi- 
mato mediante un sistema avente un nu- 
mero di particelle di gran lunga inferio- 
re, se ogni milione circa di particelle del- 
la galassia reale viene rappresentato nel 
modello da un'unica particella. 

Qual è il numero minimo di particelle 
necessario, in un esperimento di diffu- 
sione di due galassie a spirale, affinché 
il modello sia abbastanza preciso da per- 
mettere un confronto quantitativo parti- 
colareggiato con il mondo reale? Una 
galassia reale può essere pensata come 
composta da un rigonfiamento di stelle - 
eventualmente un po' schiacciato dalla 
rotazione - situato nel centro, da un di- 
sco di stelle e gas posti in orbite preva- 
lentemente circolari e da un alone più 
esteso, grosso modo sferico, di materia 
oscura la cui esistenza è dedotta per via 
dinamica. Queste componenti si trovano 




DISTANZA 
DAL CENTRO 



L'esistenza nell'universo di materia oscura, invisìbile, viene dedotta da argomentazioni di na- 
tura dinamica. In una tipica galassia a spirale, come M104, la galassia Sombrero, le stelle 
orbitano intomo a un rigonfiamento centrale (in allo), circondato da un disco {in basso) e da 
un alone invisibile. In base alla legge della gravitazione universale, se la sola materia esistente 
fra le stelle del disco e il centro galattico fosse quella visibile, la velocità orbitale di tali stelle 
dovrebbe decrescere rapidamente all'aumentare della loro distanza dal rigonfiamento {curva in 
nero). Invece le numerose misurazioni effettuate mostrano che la velocità non diminuisce, anzi 
rimane costante fino a grandi distanze i curva in colore). La costanza della velocità orbitale 
implica che le strutture visibili siano avviluppate da un ampio alone di materia oscura. 



in un equilibrio stabile e stazionario 
nel loro campo gravitazionale reciproco. 
Poiché il disco di una galassia a spirale 
ha un diametro che supera di quasi 100 
volte lo spessore, per rappresentarlo 
adeguatamente si debbono utilizzare al- 
meno alcune centinaia di migliaia di par- 
ticelle; se il numero fosse inferiore, non 
si riuscirebbe a risolvere lo spessore fini- 
to del disco. Se in ciascuna delle parti 



delle due galassie in collisione si introdu- 
ce un numero di particelle di quest'ordi- 
ne, allora un esperimento di diffusione 
realistico comporta poco meno di un mi- 
lione di particelle. 

Integrare le equazioni del moto per un 
sistema che comprenda da mezzo mi- 
lione a un milione di particelle intera- 
genti rappresenta un'impresa formida- 



VETTORE VETTORE 

VELOCITAR ROTAZIONE" 



VETTORE 
ROTAZIONE 





SCARTO 

DA UNA COLLISIONE 

FRONTALE 



La distribuzione della materia oscura all'interno delle galassie potrebbe essere ricavata al 
calcolatore mediante un gran numero di simulazioni di collisioni galattiche. (ìli «schizzi» di stel- 
le causati dalla collisione evidenzierebbero il campo gravitazionale della materia invisibile. 



Ili 




Il Digital Otrery (planetario digitale) è un calcolatore specializzato che esegue simulazioni di 
orbite planetarie con elevata velocità e precisione. La parte elettronica della macchina occupa 
un volume di una trentina di centimetri di lato e consuma la stessa energia di una lampadina da 
ISO watt. Lavorando ai problemi per i quali è stalo progettato, il calcolatore esegue circa 10 
milioni di operazioni in virgola mobile al secondo, con urna velocità 60 volte superiore a quella 
di un VAX 11/780. Prestazioni così elevate sono dovute all'architettura parallela del Digital 
Orrery, progettata appositamente per la risoluzione di problemi di meccanica celeste. Questo 
calcolatore è stato impiegato per ricostruire le orbite dei cinque pianeti esterni del sistema solare 
negli ultimi 100 milioni di anni e per estrapolarle ai prossimi 100 milioni di anni; questo periodo 
è 40 volte più lungo di quelli coperti in passato da integrazioni di precisione del moto dei pianeti. 



bile e richiede l'impiego dei migliori al- 
goritmi numerici e dei più potenti calco- 
latori esìstenti. Ma questo è solo un 
aspetto de! problema: per utilizzare un 
sistema del genere bisogna tenere conto 
del fatto che esiste un'enorme gamma di 
parametri in grado di descrivere le pos- 
sibili condizioni iniziali. Per allestire un 
esperimento si devono scegliere le distri- 
buzioni di ciascun componente e poi co- 
struire i relativi modelli di galassie. Si 
debbono anche scegliere i valori di tutti 
i parametri iniziali della collisione. 

L'aspetto più stimolante della simula- 
zione numerica è l'analisi dei risultati. 
Parte dell'analisi dev'essere effettuata in 
parallelo con lo svolgimento di ciascun 
incontro galattico, per stabilire se que- 
st'ultimo si è protratto abbastanza a lun- 
go da poter essere considerato concluso. 
E necessario anche fissare le condizioni 
iniziali per svolgere l'elaborazione suc- 
cessiva in modo da ottenere i risultati più 
interessanti. Infine si deve compiere 
un'analisi per ricavare la struttura quali- 
tativa e i parametri de] modello necessari 
per caratterizzare i risultati dell'insieme 
di esperimenti. 

Per quanto tempo si deve portare 
avanti un esperimento di diffusione ga- 
lattica per poterlo considerare concluso? 
Supponiamo di osservare il processo di 
diffusione in un filmato. Le galassie si 
avvicinano l'una all'altra, si scontrano 
provocando grandi «schizzi» di stelle e 



poi o si fondono in una sola galassia che 
ben presto si stabilizza, o si separano di 
nuovo e se ne vanno per la loro strada 
dopo aver subito danni più o meno gravi. 
Dopo un certo tempo è possibile stabili- 
re se le zone centrali delle galassie si fon- 
dono o si separano. A questo punto ba- 
sta aspettare fino a quando è possibi- 
le compiere misurazioni per accertare 
quanti e quali danni si sono prodotti. 

Stabilire il momento della conclusione 
di un esperimento di collisione tra galas- 
sie e classificarne l'esito costituiscono un 
problema di riconoscimento qualitativo 
di forme, difficile ma non impossibile da 
automatizzare. Il sistema iniziale com- 
prende due aggregati di particelle, ognu- 
no legato gravitazionalmente a un nu- 
cleo piccolo e denso. Via via che la col- 
lisione procede, i nuclei osi separano del 
tutto, immettendosi in orbite reciproca- 
mente indipendenti, oppure finiscono 
con il fondersi. Se si fondono, prima di 
legarsi strettamente possono percorrere 
molte orbite, sempre più strette e allun- 
gate. Nel corso di questo processo, alcu- 
ne particelle di entrambi gli aggregati 
sfuggono; mentre altre formano gusci, 
filamenti e code transitori, gravitazio- 
nalmente legati o non legati al nucleo. 

I) tipo di riconoscimento che si richie- 
de è alquanto grossolano: si deve sem- 
plicemente riuscire a seguire un nucleo 
centrale che si sposta senza discontinui- 
tà. Non è difficile, per un calcolatore. 



trovare la posizione del nucleo centrale 
ne! fotogramma di un filmato, né preve- 
derne la traiettoria dalla posizione dei 
due nuclei che appaiono nei fotogrammi 
precedenti. Seguendo in questo modo i 
nuclei, é possibile stabilire se essi tendo- 
no a legarsi o a separarsi. 

Attualmente, ci accingiamo a intra- 
prendere un progetto a lungo termine 
per costruire modelli di collisioni fra ga- 
lassie, A causa della gran quantità di cal- 
coli richiesti, potrebbero trascorrere pa- 
recchi anni prima di ottenere risultati de- 
finitivi. Nelle nostre simulazioni potreb- 
bero esserci d'ausilio i calcolatori paral- 
leli (si vedano gli articoli Architetture per 
i supercalcolatori di Geoffrey C, Fox e 
Paul C. Messina a pagina 28 e Program- 
mazione per l'elaborazione avanzala di 
David Gelernter a pagina 50). 

calcoli scientifici richiesti per esten- 
-»■ dere i confini della conoscenza ri- 
chiedono spesso risorse ingenti sia per- 
ché i modelli utilizzati sono in genere 
complessi dal punto di vista dell'elabo- 
razione, sia perché la caratterizzazione 
di una classe di fenomeni necessita di un 
gran numero di esperimenti. Di solito, 
gli scienziati hanno risolto il problema o 
acquistando calcolatori di grandi dimen- 
sioni o affittandone il tempo macchina. 
Entrambe queste soluzioni sono costo- 
se . I calcolatori di grandi dimensioni non 
solo richiedono l'investimento di somme 
ingenti . ma comportano anche un pesan- 
te carico amministrativo; inoltre, dato 
che i grandi calcolatori spesso non sono 
predisposti per affrontare un problema 
particolare, la messa a punto di un soft- 
ware adatto può risultare un'impresa 
lunga e complessa. Naturalmente gran 
parte del problema sta nello stabilire 
esattamente quali algoritmi siano neces- 
sari per studiare i fenomeni, un compito 
nei cui confronti l'architettura del calco- 
latore può rappresentare un'agevolazio- 
ne o un ostacolo. Per scrivere un pro- 
gramma di idrodinamica tridimensiona- 
le che giri bene su un calcolatore tradi- 
zionale ci vogliono anni. 

Una parte notevole dell'onerosità e 
delle difficoltà legate alla programma- 
zione di un calcolatore di grandi dimen- 
sioni derivano dalla natura stessa della 
macchina, che è progettata per dare 
buone prestazioni su un'ampia gamma 
di problemi. Al contrario, un calcola- 
tore specializzato può essere semplice e 
di piccole dimensioni. In effetti può es- 
sere più facile progettare e costruire un 
hardware di questo tipo che non un soft- 
ware. È quindi prevedibile che scienziati 
e progettisti di calcolatori collaborino 
per allestire calcolatori fatti su misu- 
ra per applicazioni particolari del calco- 
lo scientifico. Per esempio, una macchi- 
na progettata per risolvere determinate 
equazioni differenziali alle derivate par- 
ziali potrebbe essere costruita più o me- 
no nello stesso tempo e con la stessa spe- 
sa necessari per allestire programmi per 
questo scopo che girino bene su un su- 



112 



percalcolatore. Inoltre il calcolatore spe- 
cializzato potrebbe diventare un norma- 
le strumento sperimentale appartenente 
al gruppo di ricerca che l'ha costruito e 
ciò consentirebbe di evitare le complica- 
zioni amministrative e i problemi di tem- 
po sollevati dai costosi supercalcolatori 
condivisi. 

La progettazione di calcolatori specia- 
lizzati svolta in collaborazione fra scien- 



ziati e tecnici non avrà come risultato 
semplicemente la costruzione di macchi- 
ne nuove per risolvere alcuni problemi; 
questi progetti modificheranno le basi 
culturali stesse del calcolo scientìfico. 
Benché gli scienziati abbiano sempre 
partecipato molto attivamente alla pro- 
gettazione dei loro strumenti, i calcola- 
tori hanno subito un trattamento diver- 
so. In questo caso gli scienziati sono so- 



175° 



i 

1 
o 



Q 



z 
O 




14.3" 



■3 # £ slip: :S3!lj ilh=j 3 Hpi!:;!ìj: :;;;!; la! i^i:;!^|i^:i:? 
l'fii-S: i^ìUfi.',- i:i:lHsi;!i::! ì: !^?!s: -!!;::■!!! h;:;ìi;:. :ììU:ì:s^ :ì!;;i ■ 

li! |IhmWMM>h 

I ìli 'Il I I 1 il!! i ! l! 1 



'Il 
I 



-107 



MILIONI DI ANNI 



+ 107 




VARIAZIONE 

DI INCLINAZIONE 



L'inclinazione dell'orbita di Plutone in un periodo di 214 milioni di anni è stata determinata per 
mezzo del Digital Orrery (in otto). L'inclinazione di un'orhita planetaria è l'angolo formato dal 
piano dell'orbita e dall'eclittica, ossia il piano dell'orbita terrestre {in basso). Nel grafico si può 
distinguere un'oscillazione fondamentale di 3,8 milioni di anni che si sovrappone a un'oscilla- 
zione più ampia di 34 milioni di anni; vi sono anche indizi di un ciclo di 137 milioni di anni. 



prattmto utenti e le loro necessità sono 
soddisfatte da fornitori, la maggior parte 
dei quali si preoccupa solo di vendere e 
fare affari. Invece gli scienziati dovreb- 
bero partecipare alla progettazione dei 
loro strumenti di elaborazione. In effet- 
ti, il progetto di un calcolatore è in ampia 
misura un problema di ingegneria del 
software e il modo migliore per rendere 
il progetto di calcolatori specializzati una 
componente normale della costruzione 
dì strumenti scientifici può semplice- 
mente essere quello di introdurre nella 
cultura scientìfica l'idea che questa atti- 
vità sia possibile. 

TI cambiamento di atteggiamento da 
J- noi previsto è del tutto analogo a quel- 
lo che ebbe luogo alcuni anni fa nei con- 
fronti della progettazione di circuiti in- 
tegrati su grandissima scala (very-large- 
-scaie integrateti, o VLSl) dove decine di 
migliaia dì componenti vengono stampa- 
ti su un unico chip. Nel 1980 Carver A. 
Mead, del California Institute of Tech- 
nology, e Lynn A. Conway, che allora 
lavorava al Centro di ricerca della Xerox 
a Palo Alto, codificarono un insieme dì 
regole per la progettazione di circuiti 
VLsi. Così facendo, svelarono gran parte 
del mistero che circondava la progetta- 
zione di questi circuiti e consentirono 
agli esperti di architettura dei calcolatori 
di progettare per conto proprio i chip 
speciali di cui avevano bisogno. Il servi- 
zio di fabbricazione basato sulla tecnica 
mosis, che derivò dal lavoro di Mead e 
Conway, consente dì separare la fase di 
progettazione di un circuito dalla sua co- 
struzione. Oggi è possibile progettare un 
circuito e inviarne la descrizione a un 
servizio centralizzato di fabbricazione. 
Di recente questo servizio è stato am- 
pliato e ora accetta anche le specifiche 
del layout di circuiti stampati; è così pos- 
sibile far fabbricare a distanza la maggior 
parte dei componenti di un calcolatore. 
Un esempio di calcolatore scientifico 
specializzato costruito con questa tecni- 
ca è il Digital Orrery (planetario digita- 
le) realizzato da uno di noi (Sussman) e 
da un gruppo di collaboratori. Il Digital 
Orrery fu progettato per studiare la sta- 
bilità a lungo termine del sistema solare. 
Il calcolatore è destinato in particolare a 
eseguire l'integrazione numerica a ele- 
vata precisione delle equazioni che de- 
scrivono il moto di un piccolo numero di 
corpi interagenti tramite la forza di gra- 
vità. Il progetto e la costruzione del Di- 
gital Orrery furono realizzati in un anno 
da sei persone (tre fisici teorici, due stu- 
diosi di calcolatori e un tecnico). La par- 
te elettronica della macchina ha dimen- 
sioni che non superano i 30 centimetri 
circa e consuma la stessa energia di una 
lampadina da 150 watt. Sul particolare 
problema per cui è stato progettato, 
questo calcolatore lavora a una velocità 
60 volte superiore a un VAX 1 1/780 con 
acceleratore di operazioni in virgola mo- 
bile. Attualmente viene adibito a uno 
studio delle orbite nella fascia degli aste- 



114 



roidi allo scopo dì capire come si siano 
formate le lacune di Kirkwood. Un altro 
impiego del Digital Orrery è lo studio 
della stabilità a lungo termine dell'orbita 
di Plutone. È stato inoltre utilizzato per 
ricostruire le orbite dei pianeti esterni 
negli ultimi 100 milioni di anni e per 



estrapolarne l'andamento nei prossimi 
100 milioni di anni. 

Prima della costruzione del Digital 
Orrery, le integrazioni a elevata preci- 
sione su periodi simulati di milioni di an- 
ni avevano un costo proibitivo e, di con- 
seguenza, si eseguivano solo pochi, sem- 



Scienziato: Consideriamo la galassia ad anello polare ADI 36-0801. 

Calcolatore: Ho i profili fotometrici e le curve di rotazione di questa galassia 
tratti da Schweizer. Whitmore e Robin (Astron ]., voi. 88, n. 7, luglio 1 983}. 
Eccoli, (Si suppone che i dati vengano presentati sulto schermo.] 

Scienziato: Rappresentiamo la distribuzione di massa della galassia come una 

combinazione di un disco di Mìyamoto e di un alone isotermico tronco. Per prima 

cosa, adattiamo il profilo fotometrico del fuso al disco di Mivamoto. 

Calcolatore: Il metodo dei mìnimi quadrati non dà una buona approssimazione. 

Meglio di cosi non riesco a fare, [Sullo schermo dovrebbe comparire un'altra 

presentazione.] 

Scienziato: Il problema è che l'anello polare passa sulla parte nord-occidentale 

del fuso e ne diminuisce la luminosità. Vedi come il profilo si abbassa intorno a — 3 

secondi d'arco? Nel fare l'approssimazione dovresti eliminare questi punti 

anomali dai tuoi dati. 

Calcolatore: D'accordo. Posso approssimare coi minimi quadrati il profilo 

fotometrico misurato con un disco di Miyamoto avente una lunghezza di scala di 

0,68 chiloparsec e uno spessore di scala di 0,92 chiloparsec. Come vedi. 

l'approssimazione è molto buona fino a quando non sì superano i 10 secondi 

d'arco. 

Scienziato: Adesso adattiamo la curva di rotazione misurata alla distribuzione di 

massa. 

Calcolatore: Come devo usare i dati relativi alla curva di rotazione per l'anello 

polare? La velocità di rotazione a raggi uguali [il margine esterno del disco e il 

margine interno dell'anello] sembrano coincìdere... pensi che si possano fondere 

I due gruppi di dati? 

Scienziato: Si. proviamo a fare cosi. 

Calcolatore: Allora ci vorrà un po' di tempo. Debbo far variare tre parametri: 
la massa del disco del fuso, la densità al centro dell'alone isotermico e il raggio del 
nucleo dell'alone isotermico. Vuoi aspettare? Quando ho una risposta soddisfa- 
cente, ti chiamo. 

[...un po' più tardi] 

Calcolatore: Ho una buona concordanza. La massa del disco è 1,75 x 10 
masse solari. L'alone isotermico ha una massa dì 9,26 X IO 10 masse solari entro 
16.9 chiloparsec. Il raggio del nucleo dell'alone isotermico è 8,17 chiloparsec. 

Scienziato: Non capisco perché il raggio del nucleo sia così grande... Come hai 
calcolato l'alone isotermico? 

Calcolatore: Il mio potenziale è proporzionale a log (R 1 + B 1 ), dove B è il 
raggio del nucleo. 

Scienziato: Non mi sembra corretto; nel mio potenziale c'è un'arcotangente. 
Calcolatore: Quindi la tua funzione di densità è Po/(l + Ri/Sì), giusto? 
Scienziato: Si, 

Calcolatore: Questo spiega tutto. I nostri nuclei hanno lo stesso comportamen- 
to asintotico, ma io misuro il raggio del nucleo in modo diverso da te. Con le tue 
unità il nucleo è più piccolo, circa tre chiloparsec. 

Scienziato: Mi sembra corretto. Che rapporto massa-luminosità abbiamo per il 
fuso? 

Calcolatore; Circa cinque. 



Un ipotetico dialogo tra un calcolatore e un astrofisico illustra come in avvenire i sistemi inte- 
rattivi potrebbero essere d'aiuto nella corruzione, nella simulazione e nell'analisi dei modelli. 
Gli autori stanno prendendo in considerazione un sistema capace di condurre una conversazione 
simile a quella riportata, anche se probabilmente in un linguaggio più formale. La caratteristica 
più importante dì questo dialogo ipotetico è il livello concettuale dell'interazione con il calco- 
latore: il programma è un buon conoscitore della tematica della costruzione di modelli di galassie. 



plici esperimenti programmando accura- 
tamente l'impiego delle risorse. Nono- 
stante gli evidenti vantaggi dì un calco- 
latore specializzato, l'idea di progettarlo 
e costruirlo non rientrava semplicemen- 
te nella mentalità degli astrofisici. In ef- 
fetti, una proposta preliminare perla co- 
struzione del Digital Orrery, sottoposta 
alla Divisione per gli strumenti astrono- 
mici della National Science Foundation, 
fu respinta perché il progetto era ritenu- 
to inattuabile. Questo atteggiamento è 
stupefacente alla luce della complessità 
dei progetti d'ingegneria portati a termi- 
ne dagli stessi astrofisici nella realizza- 
zione dei telescopi. Costruire un calco- 
latore è molto meno difficile. 

Pr accrescere l'efficienza del calcolo 
scientifico è necessario andare al dì 
là dei graduali miglioramenti nell'hard- 
ware e negli algoritmi. Lo sperimentato- 
re dev'essere messo in condizioni di la- 
vorare con un rendimento migliore do- 
tandolo dell'equivalente di una «scatola 
di attrezzi», che gli consenta di costrui- 
re e di manipolare i modelli per mezzo 
dei quali vengono definiti e controllati 
gli esperimenti di carattere quantitativo, 
propri del calcolatore, nei termini dei fe- 
nomeni qualitativi che a essi sottostan- 
no. Questi «attrezzi» debbono fare qual- 
cosa di più che preparare i dati per una 
elaborazione numerica, eseguirla e ana- 
lizzarne i risultati: devono anche consen- 
tire di comprendere come funzionano i 
modelli al calcolatore e quale sia il loro 
rapporto con le altre descrizioni dei fe- 
nomeni studiati. 

È possibile prevedere lo sviluppo di 
sistemi che combineranno potenti meto- 
di numerici con raffinate manipolazioni 
simboliche di descrizioni sia algebriche, 
sia algoritmiche. Un ambiente di pro- 
grammazione avanzato fornirà il suppor- 
to matematico simbolico per preparare, 
eseguire e analizzare automaticamente i 
risultati degli esperimenti numerici . Ci si 
può servire dei metodi simbolici per ri- 
condurre le equazioni dinamiche a una 
forma adeguata alla simulazione e per 
costruire programmi di simulazione di 
elevata qualità, adattandoli alla situazio- 
ne particolare a partire da descrizioni al- 
goritmiche più generali. Uno scienziato 
dovrebbe essere in grado di discutere 
con il calcolatore un modello di galassia 
più o meno come potrebbe fare con il 
suo assistente. Riteniamo che sistemi di 
elaborazione di questo genere siano alia 
portata della tecnologia attuale, anche 
se nessuno è stato realizzato in pratica. 

Spesso il corso della civiltà è stato mo- 
dificato dai nuovi mezzi tecnici in manie- 
ra non prevista da chi li aveva inventati: 
l'elaborazione automatica è già andata 
mollo al di là de! semplice calcolo nume- 
rico. Le elaborazioni simboliche e qua- 
litative stanno diventando parte inte- 
grante del mondo scientifico. Ben presto 
ì calcolatori saranno per lo scienziato va- 
lidi assistenti di laboratorio e non solo 
schiavi capaci di macinare numeri. 



116 



Elaborazione avanzata 
per la medicina 

Sistemi capaci di archiviare ed estrarre selettivamente dati saranno presto 
abbastanza «intelligenti» da fornire assistenza diagnostica e terapeutica, 
rendendo il calcolatore essenziale per la medicina quanto lo stetoscopio 

di G lenti D. Rennels ed Edward H. Shortliffe 



Da settimane la signora Jones ha 
dolori alla .schiena. È rimasta 
a Ietto, ha preso qualche aspi- 
rina, ma non è servito a nulla. Forse, 
pensa, un analgesico sarebbe più effica- 
ce, e così va dal nuovo medico curante, 
nella città in cui sì è recentemente tra- 
sferita. Racconta a! dottore che ti dolore 
è cominciato subito dopo la sua prima 
partita di tennis dell'anno. La visita ri- 
vela solo qualche limitazione di mobilità 
del gomito sinistro e una certa sensibilità 
nella parte inferiore della schiena. 

Il medico si affida al suo calcolatore 
personale, attraverso il quale ha accesso 
a una rete che copre tutti gli Stati Uniti. 
e si collega aita banca dati dell'ospedale 
della città da cui proviene la signora Jo- 
nes. La banca dati dell'ospedale conser- 
va in forma elettronica tutta la documen- 
tazione relativa ai pazienti, alla quale gli 
operatori sanitari autorizzati possono 
accedere. Nel giro dì pochi secondi il me- 
dico scopre che la signora Jones è stata 
sottoposta cinque anni fa a un intervento 
chirurgico per l'asportazione di un pic- 
colo tumore alla mammella. Da allora è 
sempre stata bene e non ha nemmeno 
pensato di citare questo evento quando 
si è lamentata del suo male di schiena. 

Il dottore chiude il collegamento con 
l'ospedale e chiama qmr, un sistema per 
la diagnosi nella cui memoria è archivia- 
ta un'ampia documentazione relativa a 
quasi 600 malattie. 1! sistema avanza l'i- 
potesi che la signora Jones possa avere 
l'artrite, uno strappo muscolare oppure 
una recidiva dei tumore con metastasi 
alla base della colonna vertebrale. Il me- 
dico, vedendo che una delle «opinioni» 
del sistema concorda con le sue preoccu- 
pazioni, prescrive un esame radiologico 
della colonna vertebrale, per controllare 
l'ipotesi di una recidiva della neoplasìa. 

Una situazione dei genere non è più 
un sogno avveniristico. È probabile che 
non sia lontano il giorno in cui i medici 



considereranno il calcolatore uno stru- 
mento essenziale per la loro professione 
quanto lo stetoscopio. I sistemi di infor- 
mazione medica che stanno uscendo dai 
laboratori di ricerca possono essere divi- 
si in due categorie: «sistemi di comuni- 
cazione», che archiviano informazioni 
mediche, le recuperano selettivamente e 
le trasmettono, e «sistemi di consulen- 
za», che applicano le informazioni per 
aiutare i medici nella diagnosi delle con- 
dizioni di un paziente, come qmr nel 
caso descritto, o per proporre, controlla- 
re e gestire un trattamento terapeutico. 

I progressi grazie ai quali questi siste- 
mi diventeranno sempre più effi- 
cienti sono stati descritti in altri articoli 
di questo fascicolo. 1 progressi nel] 'hard- 
ware renderanno i sistemi di elaborazio- 
ne più efficaci, ma in molti laboratori, 
compreso il nostro alla School of Medi- 
cine della Stanford University, l'accento 
è posto sullo sviluppo di software che 
permettano di trasferire nei calcolatore 
l'informazione e l'esperienza medica e 
rendano facilmente accessibili quelle in- 
formazioni e quell'esperienza al medico 
utente. Cominceremo col descrivere, a 
titolo di esempio, le caratteristiche e le 
potenzialità dei sistemi di comunicazio- 
ne e dei sistemi di consulenza. Poi discu- 
teremo alcuni problemi fondamentali 
che continuano a 'vanificare i tentativi 
dei programmatori di sviluppare soft- 
ware in grado di «ragionare» su un caso 
come farebbe un medico. 

L'esigenza di sistemi di comunicazio- 
ne nasce in parte dal fatto che per un 
medico (o per un ricercatore in campo 
biomedico) è sempre più difficile legge- 
re, memorizzare e ricordare tutte le in- 
formazioni necessarie alla soluzione di 
un problema particolare. Un medico 
può non aver incontrato da mesi o da 
anni il sintomo di cui sì lamenta un pa- 
ziente, o la malattia che lo affligge: e 



nell'arco di quei mesi o di quegli anni le 
tecnologie di diagnosi e di terapia posso- 
no essere cambiate. 

Perciò ì medici hanno comincialo a 
usare basi di dati di letteratura, o sistemi 
di recupero di informazioni bibliografi- 
che, dei quali negli Stati Uniti medline 
è l'esempio più noto. Il grande calcola- 
tore della National Library of Medicine 
di Bethesda, dove il sistema è stato svi- 
luppato, conserva praticamente tutti i ti- 
toli degli articoli pubblicati nel mondo 
negli ultimi 25 anni su temi biomedici, 
nonché i riassunti completi dei più recen- 
ti. Ogni articolo è archiviato con parole 
e frasi chiave scelte con cura, in modo 
che sia relativamente facile individuare 
gli articoli che possono interessare e poi 
chiedere di vederne i riassunti. Esistono 
inoltre sistemi di recupero di informazio- 
ni bibliografiche che archiviano anche 
tutto il testo degli articoli e permettono 
all'utente di identificare frasi significati- 
ve all'interno di qualunque articolo. 

Con l'aggiunta di ulteriori capacità al 
suo repertorio, il calcolatore diventerà il 
mezzo principale per accedere alla lette- 
ratura bio medica e alle basi di dati di 
patologia, delle quali saranno responsa- 
bili le biblioteche. Esse non saranno più 
viste come edifìci pieni di libri e di pe- 
riodici, ma come sorgenti distribuite di 
informazioni. Questa concezione in ef- 
fetti non è in conflitto con il modello 
tradizionale che considera le biblioteche 
mediche come centri di informazione: 
semplicemente, le nuove tecnologie per- 
mettono a quel modello di valicare i con- 
fini delle strutture fisiche. 

I sistemi di comunicazione forniscono 
accesso alle informazioni; sono in 
via di sviluppo sistemi di consulenza che 
possono applicare le informazioni archi- 
viate alla soluzione di specifici problemi 
reali. Per esempio, con alcuni coileghi 
stiamo lavorando da tempo su un siste- 



ma di consulenza sperimentale che ab- 
biamo chiamato roundsman. Più spe- 
cificamente, si tratta di un sistema di 
analisi critica: il medico descrive un pro- 
blema clinico e il piano d'azione che si 
propone di seguire e ROUNDSMAN" gli 
fornisce un'analisi critica di quel piano. 

Obiettivo centrale del sistema è per- 
mettere l'accessi) non solo ai dati che si 
trovano negli articoli, ma anche al signi- 
ficato che i dati assumono alla luce del- 
l'esperienza. In questa fase iniziale di 
progetto, il sistema può fornire analisi 
per casi specifici di varie possibilità di 
trattamento dei tumori al seno, sulla ba- 
se di 24 articoli. A questo scopo, codifi- 
chiamo innanzitutto le informazioni ri- 
cavate dagli articoli. Vengono memoriz- 
zati brani e frammenti: per esempio, 
«Doe e Roc NEJM 1986... in tutti i casi 
studiati sono stati rimossi ì linfonodi ed 
è stata documentata la presenza di tumo- 
re... 473 casi... sottoposti a trattamenti 
in modo casuale... 236 casi per mastec- 
tomia... 237 per asportazione dì nodu- 
li...» Vengono inseriti molti altri parti- 
colari di progetti e risultati di studio. 

Poi chiediamo a un esperto (lo specia- 
lista a cui un collega potrebbe chiedere 




consiglio in un caso difficile) opinioni 
soggettive sulle informazioni. Insieme 
con i dati viene archiviato un numero di 
opinioni sufficiente a coprire una grande 
quantità di situazioni diverse che in fu- 
turo potranno essere sottoposte alla con- 
siderazione di ROUNDSMAN. Supponia- 
mo che lo specialista ci dica che le con- 
clusioni di un certo studio debbono es- 
sere applicate con cautela alle pazienti 
affette da tumore allo stadio II. perché 
le pazienti esaminate in quella ricerca 
(che avevano i linfonodi positivi) erano 
più gravi; il consìglio dell'esperto e il suo 
modo di formulare il problema vengono 
inseriti nella memoria del sistema. 

Pensiamo a ciò che sarebbe accaduto 
se roundsman fosse stato utilizzato 
quando l'ipotetica signora Jones aveva 
scoperto per la prima volta un nodulo e 
ne aveva parlato a un chirurgo. Egli l'a- 
vrebbe visitata, avrebbe fornito al siste- 
ma le caratteristiche della paziente e 
avrebbe proposto un'asportazione del 
nodulo, roundsman avrebbe risposto: 
«Doe e Roe riferiscono nel "New En- 
gland Journal of Medicine", nel 1986, 
che in casi del genere l'asportazione del 
nodulo si è dimostrata efficace, ma tenga 



presente che la popolazione dello studio 
citato aveva una prognosi peggiore di 
quella della sua paziente». Dopo aver 
sottoposto al chirurgo questa e altre con- 
siderazioni, roundsman avrebbe di- 
chiarato che, nonostante le discrepanze, 
in linea di massima i risultati dello studio 
confermavano l'opportunità dell'aspor- 
tazione del nodulo. 

Si possono capire le distinzioni fra soft- 
ware per sistemi di comunicazione e 
quelli per sistemi di consulenza conside- 
rando le rispettive capacità e gli obiettivi 
di due sistemi sperimentali, Physician 
Data Query (>DQ) e ONCOCIN. I due si- 
stemi riguardano protocolli di tratta- 
mento dei tumori: programmi accurata- 
mente studiati per condurre prove clini- 
che in cui sono confrontate impostazioni 
alternative del trattamento. Un proto- 
collo fissa determinati procedimenti chi- 
rurgici, piani chemioterapici o radiologi- 
ci, schemi di dosaggi e trattamenti. For- 
nisce anche le risposte appropriate a pro- 
blemi particolari, come il comportamen- 
to nel caso di effetti collaterali al tratta- 
mento o l'interruzione di una terapia 
quando questa non si dimostri efficace. 













t'Jtl 












VdgJM 


liBS 






< "uuj'h 















Iti i t m.iintr at i'u>' 




















Un terminale può portare nell'ambulatorio dì un medico il reparto ra- lamentati dal paziente indicavano una tubercolosi e il medico ha chiesto 

diologico, l'archivio delle cartelle cliniche e la biblioteca medica. Per al sistema di cercare in un manuale la descrizione delle immagini ra- 

»t tenere questa ipotetica visualizzazione, il medico ha chieslo la radio- diogralìchc tipiche della malattia, Il calcolatore ha individuato e visua- 

grafia del torace di Michael A vium e la sua cartella clinica. I disturbi Untata nelle caselle in basso sullo schermo quanto gli era stato richiesto. 



120 



121 





SISTEMI 
DI COMUNICAZIONE 


























SISTEMI 
DI BASI 
DI DATI 




SISTEMI 

DI ARCHIVIAZIONE 

E COMUNICAZIONE 

DI IMMAGINI 







SISTEMI 

DI CONSULENZA 






















SISTEMI DI 
CONSULTAZIONE 




SISTEMI 
DI CONTROLLO 




SISTEMI 

DI CRITICA 



PDO 
MEDLINE 



ONCOCIN 
(Gestione) 

QMB 

(Diagnosi) 



HELP 
(Gestione) 



ROUNDSMAN 
(Gestione) 



I sistemi di informatica medica possono essere divisi in sistemi di comu- 
nicazione e sistemi di consulenza. I primi archiviano, recuperano e tra- 
smettono materiale bibliografico, cartelle cliniche di pazienti ! compresi 



i risultati aggiornati di esami clinici) e altri dati. I sistemi di consulenza 
partecipano attivamente alla diagnosi o alla gestione delle cure a un 
paziente. I sistemi di cui si parla nel testo sono evidenziati in colore. 



pdq è un sistema di comunicazione: 
una base di dati, gestita congiuntamente 
dal National Cancer Institute e dalla Na- 
tional Library of Medicine, che può for- 
nire ai medici informazioni relative ai 
protocolli messi a punto per un gran nu- 
mero di esperienze cliniche attualmente 
in corso. Con un calcolatore personale e 
un modem, un medico può avere accesso 
a un calcolatore centrale presso la biblio- 
teca e, con l'aiuto di programmi specia- 
lizzati, può identificare i protocolli che 
potrebbero essere adatti a particolari pa- 
zienti. I protocolli solitamente presenta- 
no modi nuovi di affrontare casi difficili . 
che il medico può essere in grado di 
adottare (a meno che il protocollo com- 
porti la somministrazione di un farmaco 
in via di sperimentazione). In alternati- 
va, il medico può richiedere ì nomi degli 
ospedali e dei medici più vicini che par- 
tecipano agli esperimenti relativi a un 
certo tipo di trattamento e quindi rinvia- 
re a essi il paziente. 

Supponiamo che l'esame della colon- 
na vertebrale prescritto alla signora Jo- 
nes confermi la presenza di una forma- 
zione tumorale alla base della colonna. 
Il medico può chiedere a pdq i nomi di 
centri medici che stiano studiando cure 
avanzate per il tumore al seno in fase 
metastatica; queste informazioni gli con- 
sentiranno di indirizzare la sua paziente 
a uno di quei centri. 

Il sistema pdq è stato pensato per pre- 
sentare un'ampia gamma di informazio- 
ni, non per aiutare l'utente ad applicarle 
a un paziente specifico. ONCOCIN, un si- 
stema complementare a pdo progettato 
da noi e dai nostri colleghi, aiuta i medi- 
ci che hanno in cura pazienti affetti da 
tumore , dopo che la scelta del protocollo 



è stata effettuata e il trattamento è già in 
corso, oncocin è sia un sistema di do- 
cumentazione medica, sia un sistema di 
consulenza (che per il momento è in gra- 
do di seguire solo pochi protocolli di trat- 
tamento). Tiene nota del decorso della 
cura e dei progressi del paziente, ma pos- 
siede anche un bagaglio di conoscenze 
sufficiente per assumere un ruolo attivo, 
suggerendo come il protocollo possa es- 
sere adattato alle esigenze di un partico- 
lare paziente. 

Supponiamo che la signora Jones ven- 
ga coinvolta come paziente nella speri- 
mentazione clinica di un nuovo tratta- 
mento farmacologico presso un centro 
per lo studio e la cura dei tumori. A ogni 
visita i medici che eseguono una serie 
di trattamenti chemioterapici complessi 
possono essere guidati dal sistema ONCO- 
CIN, il quale archivia i risultati dì ogni 
esame, prende nota delle condizioni del- 
la paziente e propone come vadano mo- 
dificati i dosaggi dei singoli farmaci in 
base alle risposte al trattamento. 

I particolari del protocolio, all'interno 
del calcolatore, sono rappresentati in 
strutture note come regole di inferenza. 
Per esempio, una regola può dire: «Se il 
conteggio dei globuli bianchi del pazien- 
te è inferiore al normale, ma superiore a 
3000 per millimetro cubo, allora sommi- 
nistrare il farmaco A , ma con un dosag- 
gio pari solo al 75 per cento di quello 
normale». Regole di questo tipo permet- 
tono a oncocin di dare consigli sulla te- 
rapia che è meglio somministrare in una 
particolare visita, o di richiedere deter- 
minati esami. Quello che appare sullo 
schermo ad alta risoluzione del sistema 
è simile a un modulo su carta che è già 
familiare agli oncologi, i quali descrivo- 



no i loro pazienti compilando determi- 
nate sezioni del modulo, oncocin visua- 
lizza i suoi suggerimenti riempiendo ca- 
selle vuote in altre aree dello schermo. 
Se l'utente vuole porre domande sul sug- 
gerimento ricevuto, ONCOCIN cerca dì 
fornire una spiegazione in base alla logi- 
ca del protocollo, così come è memoriz- 
zata nelle regole del programma. L'u- 
tente, ovviamente, è sempre libero di 
ignorare il consiglio: nessun programma 
di calcolatore può avere accesso a tutta 
la gamma di variabili che il medico cu- 
rante deve prendere in considerazione 
quando stabilisce la terapia di un pazien- 
te. Si ipotizza che l'utente possa avere 
ulteriori informazioni, che richiedono 
una modifica del consiglio di oncocin. 
I problemi principali ancora aperti 
nella ricerca su sistemi come ROUNDS- 
man e oncocin riguardano il software 
(e di alcuni ritorneremo a discutere più 
avanti), ma progressi nel campo del- 
l' hardware, come unità di elaborazione 
più veloci e chip di memoria di maggiore 
capacità, potranno sicuramente agevola- 
re l'uso quotidiano di questi sistemi. Og- 
gi, per esempio, i chip di memoria pos- 
sono contenere solo un numero limitato 
di protocolli. Se il protocollo di un certo 
paziente non è nella memoria interna, la 
macchina deve caricare le informazioni 
necessarie da un dispositivo di memoria 
di massa, un disco, sostituendole alle in- 
formazioni che si trovano in quel mo- 
mento nella memoria interna. Questo 
processo di sostituzione è lento, forse 
troppo lento per l'uso normale in una 
clinica. I chip di memoria ad alta capa- 
ci tà in corso di sviluppo potranno ridurre 
sostanzialmente la frequenza di queste 
operazioni di sostituzione. 



Da quel che abbiamo detto a proposi- 
to di roundsman e oncocin è 
chiaro che tostile dell'interazione fra un 
sistema di consulenza e i suoi utenti può 
variare, roundsman, come abbiamo 
detto, è un sistema di analisi critica: rea- 
gisce a ciò che pensa l'utente (la propo- 
sta di una modalità d'azione, un'ipotesi 
diagnostica) e suggerisce, se necessario, 
delle alternative. Un sistema di consul- 
tazione, invece, genera analisi e racco- 
mandazioni indipendenti, che gli utenti 
possono confrontare con le proprie idee 
e le proprie valutazioni. Mentre onco- 
cin offre una consulenza sul trattamento 
della malattìa di un paziente, il sistema 
di consulenza Quick Medicai Reference 
(OMR) , citato all'inizio dell'articolo , può 
essere consultato in merito alla diagnosi. 

OMR è un adattamento per i microcal- 
colatori di internisi - - 1, un programma 
diagnostico di grandi dimensioni svilup- 
pato alla School of Medicine dell'Uni- 
versità di Pittsburgh. Ha conoscenze re- 
lative a 577 malattie e alle loro correla- 
zioni con 4100 segni, sintomi e altre ca- 
ratteristiche dei pazienti. Il sistema può 
essere utile agli operatori sanitari in tre 
modi. Fondamentalmente omr è un si- 
stema esperto di consultazione che for- 
nisce ipotesi diagnostiche specifiche per 
singoli pazienti. Per arrivare a questo si 
chiede: con quale frequenza i pazienti 
con determinate caratteristiche hanno 
una particolare malattia? Con quale fre- 
quenza i pazienti con una certa malattia 
presentano determinate caratteristiche? 
Il sistema può richiedere le informazioni 
necessarie, qualora non gli siano state 
fornite, e può suggerire esami clinici, 
evidenziando aspetti sui quali ritiene ne- 
cessarie ulteriori ricerche. Analizza le 
informazioni ottenute e formula la dia- 
gnosi più probabile (o le diagnosi più 
probabili). 

In secondo luogo, OMR può fungere da 
manuale elettronico, che elenca le carat- 
teristiche documentate associate a una 
data malattia o, viceversa, specifica qua- 
le delle 577 malattie che conosce può 
essere associata con una data caratteri- 
stica. In terzo luogo, come «tabellone 
elettronico», può combinare più caratte- 
ristiche o più malattie e determinarne le 
implicazioni. Per esempio, si possono 
segnalare due problemi medici in appa- 
renza privi di relazione, per ottenere 
qualche suggerimento sul modo in cui 
alcune malattie, nelle circostanze adat- 
te, potrebbero dar luogo ad ambedue i 
problemi. 

INTERNIST-I, il predecessore di omr, 
si comportava quasi come un medico ac- 
cademico nella diagnosi di casi difficili. 
Oltre a essere dotato della stessa ampia 
base di conoscenze e della stessa capaci- 
tà di formulare diagnosi , QMR ha la pos- 
sibilità di funzionare come un manuale 
elettronico e come un tabellone. Attual- 
mente qmr è in corso di sperimentazio- 
ne «sul campo» all'Università di Pitts- 
burgh e in altri istituti che collaborano a 
questo progetto. 



Investigators at Multiple HSflBP cantera. Patlants «ere 
randoatzed to «Ida exclslon (I axillary dtssactton) and 
adjuvant radlotherapy and adjuvant chtwwtherapy (H* 229) or 
another protocol vhlch «as tota) «aatectoiy (1 axillary 
dltnctlon) and adjuvant chearotherapy (H* 224). For pattante 
«ho underwent the first protocol the overatl aurvlval at fi ve 
ytart turned out te be 8.75 and recurrence-frae survtval at 
flve years «as aqual to 0.58. Under the seeond protocol the 
overall survlval at flve years was 8.66 and recurrence-free 
survtval at five years «as aqual to 8.58. 

Ho* do thesa data apply to your pattanti He are not 
particularly concernei that the tnterventlcn was soaewhat 
nonstandard (they dld not radiate supraclavlcutar nodes). Kore 
troublesoM le that first, there «ere «odlflcatlons to one 
interventlon (Irt the exclslon art, «omo «Ith positive «argina 
received total «astectoiy, but reaetned in the "exclslon' 
group). Seeond, the study populatlon «as tn a «orse prognosttc 
strati* coapared to your patlent ditti ttudy strati* was 
defmed by positive axillary node hlstology; about 481 
of cltntcal stage II pattents lice yours «111 bave negativa 




■■73* 



mm) hSì 



= ^ì 


ìli H IH III 'IH 

Illllllilil 


ssi> 





6 "ni study Mratum wjn detmed by positive amllary nod* hiitology, aboul 
40H ol ciwical i\age II patenti lite youri will have negative fostology" 

W 

8 <AAAAsL UAAAAA.) 
9 seeond. 4AAA4A lOÙCCOC) 
T0 Seeond, <CCCOOt [OUAJA). 




roundsman genera commenti significativi su un piano di cura proposto fornendo, come in questo 
caso, brani tratti da un artìcolo apparso su una rivista e i relativi commenti (in atto). È qui in- 
dicato il processo tramite il quale è stata generata l'ultima frase i in basso] , Il medico inserisce una 
descrizione del paziente e della cura proposta il ). Il sistema organizza i dati immessi in un «con- 
testa clinico» (2), cerca un articolo pertinente (3) e ne estrae dati significativi (■/). Poi richiama 
la sua base di conoscenze tratte da valutazioni fornite da esperti (5 ) e la usa per fare un confronto 
con il contesto clinico, un'afférmazione che deriva dal confronto (6) diventa un elemento del 
testo in preparazione, fi sistema fa precedere alla sua afTermazionc una generalizzazione (7). 
mette fra parentesi i particolari (S), aggiunge la parola «seeond» per organizzare l'afTermazione 
in un elenco (9|, mette la maiuscola e il punto {IDI e infine visualizza il risultato iti). 



122 



123 





»•» ■■■'•• 




" 1 




.: 

: 

vi 
vi 


DllGJie ACttvlty 


WBC t 1000 


' ! 


5.0 


l'i 


3 5 


- 1 


6 3 


6 . 


3.1 




7.B 


EU 






54 


.4 
















T TI 




m 


.' 30: 
















^ PCV 


3: ! 


33 3 


'3" 2 ■ 






;- - 




7a 3 


30 * ■ 




| Hemoalobjr^^ 


■ • ■ 


11.4 




I 4 






5 


■Si 


:"1D * 




mH^H^^^ 


244 


.. 


2?4 


4: 




111 




;*■ 


Sta Rat? 




















BS» (mi) 






















m 


Ami *3alonmtnt 






















Comtsfcv»rJen hkw 


PC'CC- 


.*>.■ 




cOC. 


r*M 






= : :: 


pc :: 




Cyct» * 


■ 




. 


| 














}Wgg(| 


E 




A 


E 








a 


p 




, & viidrypf 


: 


lOEit 


■-L : 


TOEiT 


: r . . 


ocl* 


'PEA7 


TREAT 


TEE i T 




|J 














































. 




_LC_J 










3 | 


_ : 






~- 




■ ■■ 


1300 




















130'.. 







































f7SXVG-'Ua r >0 




170 


















mMBMH 




110 


















uwifm 




6? 










J' 








Cjm. Adritnircki 




!30.0 










■ ' 








Eadioshertp 




- ■ ■ L; ' 1 » c . e ■ 1 * * 


ko.lCny 


1 




Phyitc* 1 E X4a 1 na t ten 


5nf«ìstry 






1 


1? « J?> L *Ij: ind i ■ -. p ; ,' -. 


Te Drdor r Mucleir KrBici'i. ]...i T v , -Cc irjphv 






■-,:r-o l.ng 








r>, 


6 


27 


:o 


li 


■ 34 




■ 




■ 


ri 


, H 


H 1 vw 


r« '. 


Ftt 


Mer 


Ma, 


-ù" 


'.ij 


t.1,1; ■ 


V ■ , 










87 








87 


e? ■■:. 


H7 


li 










,iVi-.;iffi,«.-i;-,--.J-.,- ■- ! -- : ■-■■■■■ ■--■■■■■■■>< 

















«419 i K-T1W 




tildi* Attiviti 




- '/-. 


WBC x 1DCJ0 


: . 


eo 


* d; 


35 


>:■ ^ ' 






; i 


• 


: e 


OE 


;"■; ■; 


* DOhf* 




54 


. J4 ... 


















jf % ryrnphi 






















'*';■ 


| 0C V 


.; , 
















_W 






I mmoaiooin 


;:':1i.1:. 


Tt t 




T i 




; » 


3 


I I 


10 4. 






Plaleiet» « 1000 


IQ 


244 


29 S 


59* 


:. 


61 


"ili ■ 




'■■241 ' 


2W 


;#; 


Se 3- R»te 






















: . 


ftSA{m2j 






















m 




Airm »J53.lHnnipnT 
























£ nwr.bfn*tton n«iti* 


" ; 


, ." 


POCC 


POCC 


. *M' 




-i!,I 


!>:>:■: 


T ■ ■ 


VAM 




Cye.e * , 


::>'i: : 


J- 










! 






4 


v' : :-:- 


SutJCY?> — ' , 


è 




.'A . 


6 








* 


e 




:;;;., 


. £ vj»ftirp* 


TCiE^T 


me -i 


r'^E - - 


TRE iT 


: • . . 


Lt.. 


■::,,■ 


"PE*7 


tpeVt 


TKEAT 




ì ì 






















l'i' 
vii; 

;' : 

:: i: 


gì* f-rtutlil-l 

*^.S TOOMa'Ufc.14 


:':' r : 
















ioò 




»- * 2 vhittiiNiit 






.■.1j f .. 


: ■: 














P IT «aJMQ/Mfa. 
















1 3C. 


■ noe 






















■ . 


























■^3r G ' MJJK3 


































■:: 80 v. 




' 


! "i. 
















« 






63 


Cluti ,fcdiH<imycbì 














710 0. 






m 


FXTìoìKerap 


Sywptoi* Re» lev 


T :• • . ^ , 


PnVMCflì t i(S«ln-flt l(?n 


Cf-f-l !', i . r ,■ 


To ?r d»r Labi a>-<J Pr ac ftdur** 


'" orati Huc l*li Medicine Sfid To«ggr »t ■ -. 




Ethcd'.l ing 


D*jr 

MonS+i 


L 


27 


::■ 


31 


- 


2» 


". ' 


26 


m 


■ 


Fct 


Feb 


^M*Jr 


'-':■■ 












Jun 




fl? 


"■:■■ 


07 








e? 


- 


07 




■=■=■= ' -■■;;; . , ;v; ;V; . vi ; ; 



oncoctn fornisce consulenza sulla chemioterapia attraverso un tabellone elettronico, del quale 
vengono qui mostrate due «istantanee» corrispondenti, rispetti v ameni e, alia fase di raccolta dei 
dati e alla fase di consulenza. Sono aperte le finestre che riguardano l'ematologia e la chemio- 
terapia; altre finestre sono disponibili. 11 medico inserisce i dati ematologici relativi al 26 giugno 
i in iitin i. Lavorando su questi dati, con la conoscenza del protocollo applicabile, delle condizioni 
del paziente e del trattamento precedente, oncocin applica regole per consigliare i dosaggi 
relativi da prescrìvere nella visita del 26 giugno (in posto): se le condizioni fossero state diver> 
se, il sistema avrebbe potuto modificare i dosaggi o consigliare di posticipare il trattamento. 



Quando un sistema di consulenza co- 
me QMR è isolato, in genere forni- 
sce risposte solo dietro esplicita richie- 
sta. L'utente di uno di questi sistemi, 
inoltre, deve inserire manualmente le in- 
formazioni su un paziente, informazioni 
che, invece, potrebbero essere già pre- 
senti in un sistema vicino di comunica- 
zione e di gestione dei dati. Potrebbe un 
sistema di consulenza accedere diretta- 
mente a una fonte di dati per fornire 
spontaneamente un consiglio ogni volta 
che se ne presenti l'opportunità? Uno 
dei primi sistemi di informazione inte- 
grati per istituti ospedalieri in grado di 
fare ciò si chiama HELP ed è in corso di 
sviluppo da 15 anni allo LDS Hospital di 
Sali Lake City. 

Help gira su un calcolatore centrale al 
quale sono collegati, in tutto l'ospedale, 
terminali e stampanti. Al momento ci 
sono, per esempio, almeno quattro ter- 
minali e una stampante in ogni sala in- 
fermieri e un terminale accanto a ogni 
Ietto nelle unità di terapia intensiva; il 
progetto prevede un terminale accanto a 
tutti i 520 letti dell'ospedale. II calcola- 
tore centrale è innanzitutto un dispositi- 
vo di gestione dei dati, che archivia l'a- 
namnesi di ogni paziente all'accettazio- 
ne e tiene nota di tutte le medicazioni, 
dei risultati di laboratorio e delle condi- 
zioni dì ciascun paziente. Oltre a svolge- 
re il ruolo di gestione dei dati, il calcola- 
tore centrale incorpora migliaia di parti- 
colari sottoprogrammi logici chiamati 
settori HELP, che hanno la funzione di 
controllare tutti i dati disponibili per cia- 
scun paziente e di vigilare sul verificarsi 
di specifiche situazioni di allarme. 

Quando l'ipotetica signora Jones ven- 
ne ricoverata per il primo intervento al 
seno, un sistema come help avrebbe po- 
tuto controllare senza soluzione di con- 
tinuità le medicazioni, i risultati degli 
esami di laboratorio e le sue funzioni vi- 
tali. A differenza di un medico, help 
può passare in rassegna i risultati degli 
esami nel giro di pochi secondi, sia di 
giorno sia di notte. Supponiamo che la 
signora Jones prendesse un farmaco, la 
digossina. per disturbi cardiaci. Se gli 
esami del sangue avessero indicato un 
basso livello di potassio, HELP avrebbe 
potuto avvertire l'infermiera addetta al- 
la sua assistenza che un basso livello di 
potassio è pericoloso per un paziente a 
cui viene somministrata digossina e che 
probabilmente la signora Jones avrebbe 
avuto bisogno di un trattamento in tem- 
po breve con una soluzione di cloruro di 
potassio per via orale. 

help è un ottimo esempio di come la 
flessibilità e l'efficacia di un sistema di 
consulenza possano essere esaltate dal- 
l'integrazione con un sistema di comuni- 
cazione; ed help è solo agli inizi. La tec- 
nologia delle reti locali dovrebbe con- 
sentire di abbinare ai sistemi informatici 
ospedalieri un sistema di consulenza spe- 
cializzato come ROUNDSMAN, un sistema 
diagnostico e anche un dispositivo che 
porti radiografìe, sonogrammi, TAC e al- 



124 






Elenco delle associazioni 

Malattia polmonare e DIARREA cronica 

Malattie coirelaolll con 1 riscontri obiettivi immessi nel calcolatore 

atelectasla 

causata da sindrome c&relnolde secondarla, a neoplasia bronchiale 

polmonite acuta, eosinoflla ( LOE FFLEB J 
causata da anchllos tomiasi 

polmonite da LegloneUa 

predisponente/secondarla a sindrome da Immunodeficienza, acquisita (AIDS) 

pleurite essudativa 

causata da pseudoclstt pancreatica 

polmonite pneumococclca 

predispone nte/secondarla a sindrome eareinolde secondarla a neoplasia bronchiale 

polmonite pneumoolstlca 

predisponente/secondarla a sindrome da immunodeficienza acquisita ( AIDS ) 

ipertensione polmonare secondarla 

predisponente/secondarla a sclerosi sistemica progressiva 
o associata a schistosomiasi epatica cronica 

infarto polmonare 

predisponente/secondarlo a carcinoma del corpo o della coda del pancreas 

o predisponente/secondarlo a carcinoma della testa del pancreas 

o causato da ostruzione della vena porta 

linfoma p olmo nare 

concomitante a linfoma del colon 

o concomitante a linfoma dell'intestino tenue 

fibrosi Interstiziale secondarla diffusa 
causata da sclerosi elstemlca progressiva 



Nell'csempiii viene chiesto (in colore ) a qmr di elencare maialile che possano spiegare la presenza 
di due disturbi apparentemente distinti: malattia polmonare e diarrea cronica. L'elenco ripro- 
dotto è una parte della risposta completa di qmr, generala dal sistema a partire dalla sua base 
di conoscenze riguardanti 577 malattie, 4100 caratteristiche dei pazienti e le loro correlazioni. 



tre visualizzazioni dal reparto di radio- 
logia a terminali collocati in ogni sala 
operatoria e accanto a tutti i letti. 

Data la loro potenza e la disponibilità 
di versioni sperimentali, perché i si- 
stemi medici avanzati non hanno ancora 
un uso clinico generalizzato? Il fatto è 
che la metodologìa per la costruzione di 
sistemi di consulenza non è ancora ma- 
tura: la progettazione di un software ef- 
ficace pone ancora problemi fondamen- 
tali, teorici e pratici. 

Un elemento essenziale della maggior 
parte dei sistemi di consulenza è la messa 
a punto di un modello di certe capacità 
cliniche, in particolare del processo de- 
cisionale. Come si può costruire un mo- 
dello di una capacità cosi tipicamente 
umana e così specializzata? Le strategie 
sono differenti e si basano su imposta- 
zioni molto diverse fra loro: riconosci- 
mento d i confi gu r azio n i , regressi one st a- 
tistìca, algoritmi dì ramificazione e teo- 
ria delle decisioni. L'esame di un'ulte- 
riore impostazione, l'intelligenza artifi- 
ciale (IA) evidenzierà alcune difficoltà 
che si incontrano nello sviluppo di soft- 
ware per un sistema di consulenza. 

Gli studiosi di LA in campo medico 
sono stati influenzati da ricerche psico- 
logiche, che fanno pensare che un medi- 



co esperto si distingua principalmente 
per la ricchezza delle sue conoscenze 
(cioè per il suo archivio di informazioni 
su malattie, sintomi e trattamenti) e non 
per una qualche particolare modalità 
di elaborazione di quelle informazioni. 
I programmi che usano tecniche di IA 
per rappresentare e manipolare una co- 
noscenza particolareggiata su un certo 
campo sono chiamati sistemi esperti. Per 
mettere a punto un sistema esperto, gli 
studiosi di IA in medicina cercano prima 
di tutto di sviluppare una rappresenta- 
zione ottimale della conoscenza medica 
nel calcolatore. Gran parte della validità 
di un sistema medico basato sulla cono- 
scenza deriva dal suo archivio e dal mo- 
do in cui è strutturato, e non da tecniche 
originali di elaborazione (per esempio, 
un algoritmoche il calcolatore possa usa- 
re meglio di un essere umano). 

Una delle prime sfide che si incontra- 
no nella costruzione di un sistema basato 
sulla conoscenza è quella di affrontare la 
mole di informazioni che debbono esse- 
re rappresentate e manipolale. Prendia- 
mo, per esempio, le 577 malattie e le 
4100 caratteristiche di pazienti di QMR. 
Quando questi 4677 elementi sono col- 
legati e valutati (per indicare che certi 
sìntomi fanno pensare a determinate 
malattie, che una malattia può causarne 



un'altra e che certe caratteristiche del 
paziente sono più importanti di altre), la 
base di conoscenze di qmr contiene circa 
250 QOOelementi di conoscenza. Molti di 
questi elementi non sono documentati 
esplicitamente in alcun manuale. Ci so- 
no voluti 10 anni di collaborazione tra 
informatici e medici perché questi ele- 
menti diventassero abbastanza concreti 
ed espliciti da poter essere rappresentati 
nel sistema. Inoltre, QMR copre soltanto 
un sottoinsieme delle malattie importan- 
ti note. Un compito essenziale nella pro- 
gettazione dei sistemi esperti, quindi, e 
l'identificazione degli elementi chiave 
della conoscenza e delle loro interrela- 
zioni , poi la loro codifica in strutture di 
dati e in legami che rendano possibile 
l'applicazione efficace della conoscenza 
alia soluzione di problemi. 

Un secondo problema di progettazio- 
ne sta nell'assicurarsì che le struttu- 
re di dati che rappresentano gli elementi 
di conoscenza permettano agli utenti 
l'ampliamento e la correzione delle co- 
noscenze. Nuove scoperte possono por- 
tare cambiamenti nella pratica medica e 
un sistema basato sulla conoscenza deve 
accettare modifiche che amplino la sua 
base di conoscenze. Non sarebbe affatto 
pratico dover manipolare tutto il pro- 
gramma per ogni aggiornamento. La 
struttura di dati (che si tratti di liste, di 
una gerarchia, dì una rete o di qualsiasi 
altra struttura) che rappresenta la cono- 
scenza medica dovrebbe pertanto esse- 
re, in via teorica, indipendente dagli al- 
goritmi che manipolano quella stessa co- 
noscenza. Questa indipendenza non è 
facile da raggiungere, perché una parte 
della conoscenza medica è in se stessa 
parzialmente algoritmica, in quanto spe- 
cifica una strategia per la soluzione di 
problemi, anziché un fatto effettivo. Per 
esempio, chi deve formulare una dia- 
gnosi cerca in genere di stabilire per pri- 
ma cosa l'ambito generale di una malat- 
tia (per esempio, «disturbi epatici») e 
poi tenta di individuare la particolare pa- 
tologia presentata dal paziente. 

Inoltre, ogni elemento della cono- 
scenza medica dovrebbe essere rappre- 
sentato, idealmente, in forma modulare, 
così che una modifica apportata a un ele- 
mento non intacchi gli altri. Per esem- 
pio, due strutture di dati pensate per ot- 
tenere questa modularità sono le regole 
e i casellari (frante). Una regola è un 
enunciato inferenziale che ha la forma 
«Se A, allora fi», mediante il quale un 
sistema può raggiungere una conclusio- 
ne attraverso la tecnica logica detta mo- 
dus ponens: se A implica fi, e si sa che 
A è vero, allora se ne può dedurre fi. I 
risultati dedotti per mezzo di una regola 
possono essere usali da un'altra regola 
per una seconda inferenza: le regole, 
cioè, si «concatenano» dinamicamente. 

Un casellario, d'altra parte, rappre- 
senta un'entità, per esempio una malat- 
tia, individuata da «caselle» che defini- 
scono i tratti caratteristici di quell'entità. 



126 



REGOLA 

Per determinare il dosaggio dei meioir essalo somministrato in chemioterapia 
VAM nei protocolli 20-83-1 e 2091 : 



Se: il livello di creatinina nel siero (in mg per di) supera 1,5 



Allora: non somministrare metotressalo 



CASELLARIO 



Nome: Tularemia 



Sintomi e segni- 
FEBBRE 

PELLE coltura lesione Francisella tularensis 
LINFONODO ingrossato 
PELLE ulcerazioni 
ECG tachicardia 

TULARENSIS esame della pelle positivo 
ESPOSIZIONE a conigli roditori altri mammiferi 
ACARI storia recente di punture 
CEFALEA molto forte 



Può causare: 

Shock febbnìe 
Appendicite acuta 



Predispone a: 

Endocardite acuta infettiva cuore sinistro 



Intensità 

di evocazione 



5 
1 
1 

4 
2 
2 
i 



Frequenza 

S 
4 
4 
4 
4 
3 
3 
3 
3 



Regole e casellari sono due diverse modalità di rappresentazione di conoscenze mediche. Le rego- 
le hanno la Torma «Se condizione X, allora azione f», hncocin Un alto}, un sistema basato su re- 
gole, deve determinare i dosaggi appropriati per una chemioterapia VAM. Se esso stabilisce che 
è vera la parte «.fé» della regola relativa al metotressato. conclude che è appropriata la parte 
«.allora* della stessa regola. I casellari sono descrizioni dettagliate di malattie e sintomi. In qmr, 
un stilema basalo su casellari, il casellario per la tularemia riporta i legami «pesati» con vari se- 
gni, sintomi e altre malattie. I pesi alla voce «intensità di evocazione» riflettono la p roba bili là che 
la malattia sia presente quando si osserva un certo sintomo: significa che il sintomo non è spe- 
cifico, 5 che la malattia ne è l'unica causa. I pesi alla voce «frequenza» indicano la probabilità 
che la malattia causi un dato sintomo: 1 corrisponde a una bassa probabilità, 5 quasi alla certezza. 



come ì sintomi causati dalla malattia. È 
possibile anche definire metodi per de- 
durre il contenuto delle caselle da altri 
aspetti del casellario o da altri casellari. 

La modularità consentita da regole e 
casellari è in sé difficile da ottenere, in 
parte perché la conoscenza medica è 
qualcosa di più della somma delle sue 
parti. Per esempio, roundsman rappre- 
senta nella sua base di conoscenze ogni 
articolo di rivista come un oggetto distin- 
to. Quando viene pubblicato un nuovo 
articolo, l'operazione più semplice sa- 
rebbe quella di accrescere la base di 
conoscenze modularmente. Tuttavia le 
nuove informazioni presenti in un arti- 
colo spesso gettano nuova luce su articoli 
precedenti , modificandone l'interpreta- 
zione. Quanto più si cerca di realizzare 
questo aspetto non modulare dell a cono- 
scenza medica (per esempio inserendo 
richiami ad altri articoli in modo da rap- 
presentarne le correlazioni) tanto più 
complessa diviene la base di conoscenze, 
con elementi strettamente accoppiati, al 
punto da diventare inaccessibile quando 
si cerca di aggiornarla. 

Una terza sfida per i ricercatori è do- 
vuta al fatto che la medicina possiede 
solo modelli limitati del corpo umano e 
delle malattie. È una situazione notevol- 
mente diversa da quella dei sistemi pro- 
gettati, per esempio, per agevolare un 
processo di produzione industriale. Nel- 



la produzione industriale si ha una chiara 
comprensione della funzione dei singoli 
componenti e del loro montaggio: i pro- 
blemi di produzione e la diagnosi dei 
guasti possono essere affrontati spesso 
prendendo in considerazione le caratte- 
ristiche combinatorie di una sequenza di 
montaggio o i modi in cui i singoli com- 
ponenti possono dar luogo a disfunzioni. 
Conosciamo, a questo livello mecca- 
nicistico, un ristretto numero di compo- 
nenti del corpo umano e pochissime loro 
funzioni. 1 medici pertanto hanno biso- 
gno di usare un'ampia gamma di cono- 
scenze tra le quali regole empiriche ap- 
prese dai migliori professionisti , dati de- 
rivanti da analisi statistiche di esperi- 
menti clinici, meccanismi causali dedotti 
dall'anatomia, dalla fisiologia e dalla 
biologia molecolare, problemi sociali 
connessi con l'assistenza medica. Un 
compito fondamentale per coloro che 
mettono a punto sistemi informatici per 
la medicina è lo sviluppo dì tecniche per 
codificare e applicare tipi così diversi di 
conoscenze in modo coordinato. 

compiti concettuali e di progettazio- 
-1 ne che devono essere affrontati da 
chi sviluppa sistemi di consulenza posso- 
no essere messi a confronto con i proble- 
mi pratici che già si pongono coloro che 
sviluppano sistemi di comunicazione. 
Sono problemi che si possono valutare 



meglio considerando gli ostacoli che si 
incontrano nel l'introduzione di un siste- 
ma di archiviazione e comunicazione di 
immagini o PACS (Picture-Archiving and 
Commimication System). Questi sistemi 
hanno già superato da tempo lo stadio 
della ricerca, ma non sono ancora diffusi 
perché la loro realizzazione è ostacolata 
da problemi logistici ed economici. 

Un PACS archivia radiografie e altre 
immagini mediche in forma digitale, le 
trasferisce ovunque siano necessarie e 
presenta sullo schermo visualizzazioni 
ad alta definizione. Attualmente i medi- 
ci vanno fino al reparto radiologia per 
esaminare una radiografia e spesso sono 
gli stessi pazienti a dover portare le loro 
radiografie da ambulatorio ad ambula- 
torio. Ovviamente sarebbe meglio che le 
immagini radiografiche potessero essere 
distribuite direttamente alle corsie d'o- 
spedale e alle cliniche, soprattutto se la 
stessa radiografia fosse richiesta da me- 
dici diversi in luoghi diversi. 

Disponiamo già del software per crea- 
re immagini e visualizzarle in questo mo- 
do; esistono linee di comunicazione su 
fibra ottica che possono consentire le ne- 
cessarie velocità di trasferimento dell'or- 
dine dei 200 megabit al secondo; sono 
disponibili terminali che visualizzano le 
immagini con risoluzione sufficiente (in 
effetti sono già utilizzati nell'industria ci- 
nematografica e televisiva). Certamente 
i sistemi digitali per immagini trarranno 
vantaggio da ulteriori ricerche, ma an- 
che la tecnologia attuale potrebbe mi- 
gliorare di molto la distribuzione e l'in- 
terpretazione di immagini mediche. Pe- 
rò, nell'attuale clima di competizione fi- 
nanziaria, al quale anche la medicina 
non si sottrae, risulta difficile giustificare 
una nuova tecnologia ad alto costo. 

Che cosa occorrerebbe per introdurre 
un pacs in un ospedale moderno e già 
affollato di apparecchiature? L'introdu- 
zione della rete a fibre ottiche, oltre che 
costosa, provocherebbe un disagio enor- 
me. Per distribuire le immagini ad alta 
risoluzione in tutto l'ospedale sarebbero 
necessarie numerose stazioni operative, 
ciascuna con unità video ad alta defini- 
zione - 2048 per 2048 pixel (unità d'im- 
magine) - in grado di rappresentare da 
cinque a otto sfumature di grigio. 

Dato il costo di un sistema del genere, 
alcuni istituti hanno cominciato ad adot- 
tare apparecchiature di gestione delle 
immagini in modo frammentario; quan- 
do occorre sostituire un'apparecchiatura 
convenzionale, acquistano una macchi- 
na digitale. A poco a poco arriveranno 
ad avere probabilmente abbastanza ap- 
parecchiature digitali e stazioni operati- 
ve per integrarle in una rete PACS. Que- 
sto è solo un esempio di come ostacoli 
finanziari o logistici possano inibire la 
diffusione di una tecnologia disponibile. 

sistemi informativi non hanno (e 
*- non avranno ancora per qualche 
tempo) una comprensione abbastanza 
completa delle considerazioni tecniche. 



128 



cliniche e sociali della medicina per po- 
tersi avvicinare alla ricchezza e alla fles- 
sibilità dell'esperienza di un buon spe- 
cialista. I sistemi di consulenza di cui ab- 
biamo parlato rappresentano effettiva- 
mente dei progressi nell'informatica me- 
dica, ma nessuno di essi è efficace senza 
il buon senso e il giudizio di un operato- 
re sanitario esperto. Ci sono molti aspet- 
ti della capacità umana di risolvere pro- 
blemi che non si è ancora in grado di 



trasferire in un modello al calcolatore. 
Nonostante tutte queste problemati- 
che, abbiamo una visione ottimistica del 
futuro dell'elaborazione avanzata per la 
medicina. I calcolatori sono più che sem- 
plici divoratori di numeri. Ormai è bene 
assodata la loro capacità di archiviare, 
recuperare selettivamente e trasmettere 
informazioni mediche. All'orizzonte ci 
sono sistemi in grado di fornire consigli 
ragionati sulla diagnosi e la gestione di 



casi specifici- 1 progressi nella scienza dei 
materiali e nella progettazione di chip, 
nelle reti e nell'elaborazione parallela 
promettono una maggiore libertà d'azio- 
ne per tutti coloro che lavorano alla mes- 
sa a punto di software per i sistemi di 
informazione medica. Ci aspettiamo dì 
vedere un uso crescente di sistemi avan- 
zati, abbastanza «intelligenti» da assu- 
mere un ruolo attivo, anche se subordi- 
nato, nella pratica medica. 




Il futuro sistema informatico ospedaliero trasmetterà testi e immagini 
a stazioni operative in tutto l'ospedale tramile una rete totale. Le in- 
formazioni sui pazienti saranno inserite dall'ufficio accetta/Jone , dal- 
l'archivio, dai laboratori, dalle sale operatorie e dai terminali accanto 
ai letti (e trasmesse a tutte le stazioni!. I risultati archiviati di radiogra- 
fie, tac, ecografie e altri esami e il materiale bibliografico saranno 



trasmessi con cavi a fibre ottiche ovunque siano necessari. Una rete su 
vasta estensione permetterà l'accesso a nasi di dati e sistemi di consu- 
lenza medica remoti. A differenza dei sistemi attuali guidati da un 
calcolatore centrale, quelli futuri decentreranno gran parte della me- 
moria e dell'elaborazione alle stazioni operative. HELP, una versione 
ridotta del sistema, ì già operativo allo LOS Hospital di Salt Lake City. 



130 



(RI)CREAZIONI 
AL CALCOLATORE 



di A. K. Dewdney 



«After MAD»: un videogioco di strategia nucleare 
che finisce in un Dilemma del prigioniero 



Siete il leader di una potenza nuclea- 
re. Un generale, capo di stato 
maggiore delle forze armate del 
paese, vi ha appena passato un foglietto 
con una griglia un po' confusa di numeri. 
Vi sono due righe contrassegnate «noi» 
e due colonne contrassegnate oloro». Il 
generale vi rivolge la parola: 

«Questa matrice contiene l'essenza 
numerica di quanto di meglio ha prodot- 
to il nostro pensiero militare, economico 
e politico. Come può vedere, c'è un ri- 
quadro per ciascuna possibile combina- 
zione di azioni. Se noi attacchiamo e il 
nemico non lo fa, per esempio, il nostro 
guadagno totale è in proiezione di -63 
punti...» 

Il generale ha un'esitazione e poi si 
illumina un po'. 

«...ma per il nemico si ha una proie- 
zione pari a —74 punti.» 

Come leader politico siete abituato a 
fare discorsi e a tagliare nastri alle inau- 
gurazioni. Avete partecipato a riunioni 
strategiche, confessando poi di averle 
trovate piuttosto complicate. E ora il ca- 
po di stato maggiore prosegue: 

«In poche parole, abbiamo qui una 
semplice matrice due per due delle stime 
di guadagno e di perdita nel casoche una 
delle due parti, nessuna delle due o en- 
trambe lancino un attacco nucleare.» 

Vi trovate in realtà allo stadio iniziale 
di «After mad», un videogioco di stra- 





LUI 




COOPERARE 


TRADIRE 


3 


UJ 

ce 

< 

(E 
Hi 

a. 

8 

o 


(3,3) 


(0,5) 


Hi 
CE 
Q 

< 

ce 


(5.0) 


(1,1) 



Una motrice per il Dilemma del prigioniero 

148 



tegia nucleare inventato nel 1985 al Mas- 
sachusetts Institute of Technology da 
Tad Homer-Dixon e Kevin Oliveau. Le 
iniziali mad sono un acronimo di mu- 
ntally assured destruction (distruzione 
reciproca assicurata). L'«after» (dopo) 
si riferisce a una fase del gioco in cui la 
distruzione non è più così reciproca: poi- 
ché le armi schierate diventano sempre 
più precise, a un certo punto è possibile 
lanciare per primi un attacco che lasci il 
nemico troppo malconcio per poter sfer- 
rare una seria rappresaglia nucleare. 
Perciò, ciascun giocatore sarà sempre 
più tentato di lanciare un attacco senza 
provocazione. I giocatori hanno rag- 
giunto una situazione nota come «Di- 
lemma del prigioniero» (si veda la rubri- 
ca «Temi metamagici» di Douglas R. 
Hofstadter in «Le Scienze», n. 179, lu- 
glio 1983). Spiegheròqui di seguito i par- 
ticolari risvolti di «After mad». 

Come ho detto, l'elemento chiave del 
gioco è una matrice due per due. La ma- 
trice ha questa dimensione perché cia- 
scun giocatore ha due possibilità: attac- 
care o non attaccare. Il contenuto della 
matrice cambia a ogni passo del gioco: i 
numeri che appaiono in essa indicano 
l'equilibrio strategico in quel momento. 
Ogni elemento della matrice è formato 
da una coppia di numeri, una per ciascu- 
na possibile combinazione di scelte effet- 
tuate dai due giocatori. Il primo numero 
di una coppia è il valore del risultato del- 
la combinazione per Noi e il secondo è 
il valore per Loro. Se, per esempio. Noi 
avessimo deciso di astenerci dall'attacca- 
re mentre Loro attaccano, il primo nu- 
mero sarebbe inferiore al secondo. 

La successiva matrice di gioco dipende 
ovviamente dalla combinazione delle 
mosse effettuate dai due giocatori in ri- 
sposta alla matrice in corso. Ciascuna 
matrice di gioco può portare ad altre 
quattro matrici, a seconda delle mosse 
fatte dai giocatori. In «After mad» ci so- 
no 110 matrici, ossia 110 possibili situa- 
zioni. Si possono distinguere nel gioco 
cinque fasi diverse: 

Fase mad iniziale. Le armi strategiche 
di ciascun giocatore sono efficaci solo 
contro obiettivi «morbidi», quali centri 
abitati e impianti industriali. 



Seconda fase (10 anni dopo la fase 
mad iniziale). Vengono schierati mirv 
(multiple indipendently targetable reen- 
try vehicles, veicoli di rientro a testate 
multiple a bersaglio indipendente) su 
ICBM (intercontinental ballistic missiles, 
missili balistici intercontinentali). An- 
che se molte armi rimangono riservate a 
obiettivi «morbidi», ciascun giocatore 
adotta una strategia cosiddetta di «con- 
troforza»: i suoi mirv sono puntati esclu- 
sivamente sui silos degli ICBM nemici. 

Terza fase (20 anni dopo la fase mad 
iniziale). La precisione dei mirv è dra- 
sticamente aumentata. La mad ha perso 
credibilità, dato che ora un attacco pre- 
ventivo ha la sicurezza di distruggere il 
75 per cento dell'armamento strategico 
ad alta precisione dell'avversario. 

Quarta fase (30 anni dopo la fase mad 
iniziale). Entrambi i giocatori hanno in 
dotazione marv (maneuverable reentry 
vehicles, veicoli di rientro manovrabili) 
capaci di distruggere in pratica 'il cento 
per cento degli ICBM nemici. La mad è 
del tutto superata perché u n primo colpo 
«controforza» è ora militarmente appe- 
tibile; una minaccia di ritorsione su cen- 
tri urbani non è più un deterrente credi- 
bile di fronte a un attacco del genere. 

Quinta fase (45 anni dopo la fase mad 
iniziale). Sistemi di difesa antimissili ba- 
listici con base nello spazio (sbmd, spa- 
ce-based ballistic missile defense) sono in 
grado di neutralizzare totalmente qual- 
siasi attacco che coinvolga fino al 50 per 
cento dei vettori del nemico. Ciascun 
giocatore ha anche mine spaziali in orbi- 
ta vicino ai componenti del sistema sbmd 
dell'avversario. Il paese che sferra il pri- 
mo colpo potrebbe così distruggere il si- 
stema sbmd, i centri urbani e gli icbm 
dell'altro. L'sbmd dell'attaccante rimar- 
rebbe intatto e potrebbe bloccare qual- 
siasi successivo attacco di SLBM (subma- 
rine-launched ballistic missile, missile 
balistico lanciato da sommergibile) del 
nemico. 

Cinque matrici di gioco centrali ri- 
specchiano l'instabilità relativa di queste 
cinque fasi (si veda l'illustrazione nella 
pagina a fronte). I giocatori passano da 
una matrice centrale a quella successiva 
solo se nessuno dei due attacca , resisten- 
do alla tentazione sempre maggiore do- 
vuta al continuo aumento dei guadagni 
e alla consapevolezza che il nemico su- 
bisce la stessa tentazione. Le ultime due 
matrici sono «Dilemmi del prigioniero». 

Come Douglas R. Hofstadter ha spie- 
gato in queste pagine, un Dilemma del' 
prigioniero inizia quando due persone 
trovate vicino alla scena di un delitto 
vengono bloccate dalla poli ziaper essere 
interrogate. Seguendo la procedura abi- 
tuale in questi casi, i due sono sottoposti 
a interrogatori separatamente per impe- 
dire che possano concordare la loro ver- 
sione dei fatti. Si dà il caso che i sospet- 
tati siano colpevoli. Nessuno dei due sa 
se l'altro confesserà o no. Se entrambi 
confessano, le cose si metteranno male 
per loro. Ma se uno solo dei due confes- 



PRIMA FASE: MAD INIZIALE 



BOMBARDIERE 



VEICOLO V 
DI RIENTRO ,_, r; 



A. 



SOMMERGIBILE 



a 



-^ 



ICBM 



dMlH 



CITTÀ 



cu 





LORO 




ASTENERSI 


ATTACCARE 


5 
z 


co 
ce 

Ili 
z 
Ili 

io 

< 


(3.3) 


(-74,-63) 


UJ 

ce 

< 
o 
o 

< 

< 


(-63,-74) 


(-74,-74) 



SECONDA FASE: 
SCHIERAMENTO DI MIRV 





R 



rfìflrlìif 



Un 





LORO 




ASTENERSI 


ATTACCARE 


i 


ce 

Hi 

z 

Hi 

52 


(3,3) 


(-43,-19) 


Hi 

ce 

< 
o 
o 

< 

< 


(-19,-43) 


(-43,-43) 



TERZA FASE: \ \ 

AUMENTO DI PRECISIONE DEI MIRV\ 

\ 
s 


\ 

\ 


? rWv! 


r 

~r 


sz 


p 


r-| 


m 




A 












A- ^ -. / 




•6= . r? y 























LORO 




ASTENERSI 


ATTACCARE 


o 

z 


co 
ce 

Hi 

Z 
HI 

< 


(3,3) 


(-51,-5) 


HI 

ce 

< 
u 
u 

< 

■t 

< 


(-5,-51) 


( 45,-45) 



QUARTA FASE: 
SCHIERAMENTO DI MARV 



DI RIENTRO MANOVRABILE 



VEICOLO \ l 




aN 



a ri 

D 



m. 





LORO 




ASTENERSI 


ATTACCARE 


o 

z 


CO 

ce 

Hi 

Z 
Hi 

1- 

co 

< 


(3,3) 


( 71.33) 


HI 

ce 

< 
o 
o 

< 

< 


(33.-71) 


( 62, 62) 



QUINTA FASE 



SCHIERAMENTO DI SISTEMA BMD CON BASE NELLO SPAZIO \spaZIALeO ^fi 



u ^ ^ MISSILE 

LANCIATO 

DA SOMMERGIBILE 




« P 






LORO 




ASTENERSI 


ATTACCARE 


1 


ce 

HI 
Z 
HI 
1- 
(O 
< 


(3,3) 


(-99,55) 


HI 

ce 
< 

o 

< 

t 

< 


(55,-99) 


(-90,-90) 



Le cinque fasi di «After mad» e le loro rispettive matrici centrali di gioco 



149 



sa, gli andrà relativamente bene e rice- 
verà una condanna più mite dell'altro. 

Nel linguaggio del Dilemma del pri- 
gioniero, ciascun prigioniero può coope- 
rare (con il suo compagno) negando di 
essere coinvolto nel crimine, oppure, 
per converso, può tradire raccontando 
tutto. C'è una matrice standard associa- 
ta al Dilemma del prigioniero {si veda 
l'illustrazione a pagina 148). Hochiama- 
to Lui e Lei i prigionieri nella convinzio- 
ne che un tocco di romanticismo renda 
spesso più piacevole una discussione tec- 
nica. Se Lui e Lei cooperano, ricevono 
entrambi un «pagamento» di tre punti. 
Se entrambi tradiscono, ricevono un pa- 
gamento di appena un punto. Ma se uno 
solo dei prigionieri tradisce. Lui o Lei 
riceve cinque punti e l'altro zero. 

Oual è il modo migliore per giocare? 
Per valutare le strategie bisogna effet- 
tuare non una ma molte partite. Il paga- 
mento medio diventa una misura della 
validità di una strategia. 

Nel 1983, Robert Axelrod dell'Institu- 
te for Public Policy Studies dell'Univer- 
sità del Michigan organizzò un torneo di 
Dilemma delprigionieroa cui partecipa- 
vano programmi per calcolatore che 
adottavano diverse strategie di gioco. 
Ogni coppia di programmi giocava 1000 
partite. Netto vincitore risultò un pro- 
gramma molto semplice, chiamato TIT 
FOR tat («occhio per occhio»), la cui 
strategia consisteva banalmente nel ri- 
produrre quello che il progra rnma avver- 
sario aveva fatto alla mossa precedente. 

Le matrici di «After mad» sono simili 
a quelle del Dilemma del prigioniero. 
Ho sostituito le parole «astenersi» e «at- 
taccare» a, rispettivamente, «coopera- 
re* e «tradire». I numeri delle matrici, 
inoltre, sono di solito più grandi, co- 
me nella matrice centrale della quarta 
fase di «After mad» {si veda l'illustra- 
zione in questa pagina). Nella matri- 
ce c'è una relazione tra i pagamenti che 
è tipica di tutti i Dilemmi del prigioniero: 
il pagamento «tentazione» (33), il paga- 
mento «ricompensa» (3), il pagamento 
«punizione» (—62) e il pagamento «bab- 
beo» (-71) formano una successione 
strettamente discendente di numeri. Ci 





LORO 




ASTENERSI 


ATTACCARE 


s 


03 

ce 

LU 

z 
tu 

t- 

V) 

< 


(3,3) 


(-71,33) 


w 
oc 

< 
u 
o 

< 

« 


(33.-71) 


(-62,-62) 



Matrice centrale 
della quarta fase di « After mad» 



si potrebbe augurare che i giocatori di 
«After mad» impieghino una strategia 
«occhio per occhio», assicurando così 
non un solo un punteggio ragionevole a 
entrambi i giocatori ma anche, simboli- 
camente, la pace mondiale. 

Homer-Dixon e Oliveau hanno avuto 
il loro da fare per rendere realistico il 
gioco, sia per quanto riguarda i numeri 
nelle matrici di gioco sia per la costruzio- 
ne dello scenario che accompagna ogni 
situazione. In parte, la loro intenzione 
nel costruire il gioco era quella di otte- 
nere uno strumento di ricerca per son- 
dare gli effetti delle trasformazioni tec- 
nologiche sulle relazioni strategiche tra 
Stati Uniti e Unione Sovietica, ma la lo- 
ro ipotesi iniziale sul modo in cui gli stu- 
denti (tra gli altri) avrebbero tendenzial- 
mente affrontato il gioco è stata nella 
pratica reale ribaltata. Di solito i gioca- 
tori non aspettavano che le matrici di 
gioco diventassero instabili per scatena- 
re la guerra. Nel 35 per cento delle 100 
partite giocate al MIT uno o l'altro dei 
due giocatori lanciava un attacco nuclea- 
re mentre era ancora valida la mad. 

Va precisato che agli studenti impe- 
gnati nel gioco erano state fornite in an- 
ticipo precise istruzioni ed era stato loro 
chiesto di motivare per iscritto le loro 
mosse Visto che nel mondo reale abbia- 
mo a disposizione una sola possibilità, 
forse abbiamo avuto una bella fortuna. 
Descriverò ora il modo in cui Homer- 
-Dixon ha costruito le matrici di gioco e 
il modo in cui hanno risposto i giocatori. 

Ciascun pagamento in ciascuna matri- 
ce di gioco di «After mad» ha tre com- 
ponenti: vantaggi militari, benessere e- 
conomico-sociale e potere politico. Il 
più piccolo pagamento positivo, 3, è 
composto da un'unità di ciascuna com- 
ponente e rappresenta un paese in pace, 
con un piccolo incremento in ciascuna 
delle tre componenti sul breve periodo 
di una mossa . Ciascuna componente può 
contribuire al massimo con 33 unità, po- 
sitive o negative. 

Ecco come Homer-Dixon ha calcolato 
il pagamento «tentazione» della matrice 
centrale della terza fase di gioco, che 
rappresenta il pagamento ricevuto da un 
giocatore che attacca mentre l'altro si 
astiene. La componente militare all'ini- 
zio è stimata +5, ma deve essere ridotta 
di 3 per tener conto dei costi di una pos- 
sibile rappresaglia. Al 3 si arriva nel mo- 
do seguente. Se un giocatore sferrasse 
un attacco «controforza» totale, potreb- 
be distruggere il 75 per cento del mate- 
riale strategico avversario. In tal caso il 
giocatore che attacca per primo infligge- 
rebbe una perdita di 75/100 x 33 = 24 
punti (all'incirca) al secondo giocatore. 
Dato che l'attaccato rimarrebbe con solo 
il 25 per cento delle sue armi dopo aver 
subito il colpo iniziale, potrebbe inflig- 
gere all'attaccante una perdita di solo 
25/100 x 24 = 6 punti. La perdita di sei 
punti è poi ridotta di un fattore due per 
tener conto del fatto che difficilmente il 
paese attaccato sarebbe in grado di or- 



ganizzare una rappresaglia avendo a di- 
sposizione solo il 25 per cento delle sue 
forze strategiche. 

11+2 della componente militare che 
rimane una volta sottratto 3 (il costo del- 
la possibile rappresaglia) a 5 (il guada- 
gno militare) viene poi sommato ai con- 
tributi che vengono dalle altre due com- 
ponenti: -2 per il benessere economico- 
-sociale e -5 per il potere politico. È 
presumibile che il paese attaccante subi- 
sca perdite nelle industrie e tra la popo- 
lazione come risultato della risposta del 
nemico; inoltre il suo Governo (in un 
mondo non impazzito) sarebbe univer- 
salmente condannato per aver lanciato 
per primo l'attacco. In totale, chi ha 
compiuto un attacco preventivo riceve 
+2 - 2 - 5 = -5. 

Gli scenari utilizzati in «After mad» 
descrivono accuratamente le conseguen- 
ze strategiche della situazione corrente. 
Homer-Dixon e Oliveau spiegano anche 
ciascun elemento della matrice di gioco 
indicando come esso rispecchi quelle 
conseguenze. Essendoci 110 matrici, ci 
sono anche 110 scenari, ciascuno illu- 
strato da un testo ai giocatori che arrivi- 
no a quella matrice. 

Una guerra scoppia ogniqualvolta uno 
dei giocatori (o tutti e due) non coopera 
e attacca l'altro. A questo punto il gioco 
passa dalla matrice centrale in cui si è 
sviluppato l'attacco a una delle matrici 
collegate. La guerra può terminare con 
la distruzione di entrambi i contendenti 
(mettendo fine alla partita) oppure può 
far tornare i due giocatori a una matrice 
centrale più arretrata che permette loro 
di raccogliere i pezzi della propria esi- 
stenza frantumata. 

Anche se i giocatori erano stati istruiti 
perché facessero tutto il possibile per 
rendere massimo il proprio punteggio, 
sembra che abbiano tenuto conto di altri 
fattori. Impossibilitati a vedersi o a co- 
municare l'uno con l'altro, diventavano 
a volte un po' paranoici. Ecco come due 
giocatori, chiamati semplicemente Co- 
lonna e Riga, sono riusciti a sopravvive- 
re ad «After mad»: 

Riga giocava da convinto pacifista. 
Come si poteva ricavare dalla registra- 
zione lasciata nel calcolatore, non cerca- 
va di rendere massimo il proprio punteg- 
gio totale, ma si sforzava di seguire dei 
principi morali. «Non giocherò per fare 
punti. Intendo giocare seguendo in linea 
di massima le mie convinzioni . Probabil- 
mente coopererò sempre. .. . Spero che 
l'altro giocatore giochi al mio stesso- 
modo.» 

La registrazione di Colonna per varie 
mosse iniziali rivela che non attaccava 
solo perché il pagamento relativo non 
era abbastanza alto. Colonna cercava di 
rendere massimo non solo il proprio 
punteggio, ma anche la differenza tra il 
suo punteggio e quello di Riga. Ben pre- 
sto iniziò a manifestare il timore che Ri- 
ga lo attaccasse. 

A un certo punto, l'ansia di attaccare 
di Colonna prese il sopravvento. Il fatto 



150 



disorientò Riga, il quale pensò che Co- 
lonna avesse attaccato per paura che egli 
attaccasse per primo o perché voleva 
rendere più interessante il gioco La sua 
speranza era che Colonna non attaccasse 
di nuovo convincendosi che Riga non 
stava meditando vendetta. 

Per i due turni successivi, entrambi i 
giocatori cooperarono. Riga era sempre 
più fiducioso che Colonna non avrebbe 
attaccato di nuovo visto che lui aveva 
dimostrato la sua lealtà. Ma l'interpre- 
tazione che Colonna dava degli eventi 
era ben diversa. Egli, in realtà, aveva 
concluso che Riga se ne stesse tranquillo 
a ricostituire le proprie forze per poterlo 
attaccare più efficacemente. Di conse- 
guenza, alla mossa successiva, Colonna 
attaccò di nuovo. Aveva cominciato a 
innervosirsi per la continua cooperazio- 
ne di Riga: «Voglio ridurlo a un livello 
così basso che se anche rispondesse a un 
attacco andrebbe sotto zero.» 

Dopo la partita , Riga ripensò alla pro- 
pria strategia e decise che era necessa- 
ria qualche revisione. La sua nuova stra- 
tegia segue ancora dei principi morali, 
ma contiene inequivocabilmente un ele- 
mento di «occhio per occhio»: «Sostan- 
zialmente consiste in una politica di no 
first use (NFU). Nel caso di aggres- 
sione del nemico compirei un'immediata 
rappresaglia e continuerei ad attaccare 
finché il mio avversario iniziasse a co- 
operare oppure facesse chiaramente ca- 
pire che non si fermerebbe davanti a nul- 
la pur di vincere. In entrambi i casi ini- 
zierei a cooperare perché non ha senso 
uccidere anche tutta la sua popolazione 
se lui è determinato a uccidere la mia. 
Una volta che il mio avversano avesse 
attaccato, dunque, adotterei una strate- 
gia di NFU fino al raggiungimento dello 
stadio MARV. In questa fase attaccherei 
per sfuggire al rischio di un'aggressione 
unilaterale che mi lascerebbe senza dife- 
sa... Anche se questo metodo può sem- 
brare sgradevole, risulta il modo miglio- 
re per ridurre al minimo la perdita di vite 
umane.» 

Dalla loro esperienza con le partite 
giocate dagli studenti, Homer-Dixon e 
Oliveau hanno concluso che i giocatori 
interpretavano le matrici di pagamento 
non secondo le istruzioni ricevute, ma 
secondo altri criteri. A volte i giocatori 
cercavano di rendere massima la diffe- 
renza tra il proprio punteggio e quello 
del loro avversario e questo può spiegare 
perché molti attaccassero fin dall'inizio. 
Altri cercavano di rendere massima la 
somma dei punteggi e questo spieghe- 
rebbe perché il 20 per cento non abbia 
mai attaccato. Altri giocatori, ancora, 
perseguivano una posizione di dominio 
strategico o, al contrario, adottavano un 
atteggiamento strettamente morale. 

Uno studente ha riassunto per iscritto 
le sue sensazioni a proposito del gioco. 
Cito alcune delle sue osservazioni con- 
clusive: «Le tentazioni a cui erano sotto- 
posti i giocatori erano abbastanza forti 
da spingere numerosi studenti a lanciarsi 



l'un l'altro attacchi massicci... . Questo 
non depone a favore della teoria dell'e- 
quilibrio di forze, o equilibrio del terro- 
re. Se i leader mondiali iniziassero a ve- 
dere il loro terreno di gioco su terminali 
video, potremmo trovarci tutti in una 
partita di pacman in cui tutti i pallini 
vengono mangiati e il meccanismo di 
cambio è fuori uso.» 

Homer-Dixon, dopo essersi diploma- 
to al MIT, studia attualmente nel Center 
for International Studies di Cambridge 
(Massachusetts). Oliveau lavora, sem- 
pre a Cambridge, alla Thinking Machi- 
nes, Inc. L'elaborazione di «After mad» 
è stata finanziata con fondi del Progetto 
Athena, un programma in corso presso 
il MIT, sponsorizzato dalla IBM Corpo- 
ration e dalla Digital Equipment Corpo- 
ration e finalizzato allo studio del ruolo 
dei calcolatori nell'istruzione. Hayward 
Alker, professore nel Dipartimento di 
scienze politiche del MIT, ha contribuito 
all'elaborazione di «After mad» e l'ha 
utilizzato nei suoi corsi. Si possono avere 
ulteriori informazioni sul gioco e sulla 
sua disponibilità scrivendo a Homer- 
- Dixon presso il Center for International 
Studies, 292 Main Street, Cambridge, 
Massachusetts 02142. 

Sono stato sommerso dalle risposte dei 
lettori all'articolo di agosto sugli al- 
gorompicapo. Non c'erano programmi 
da scrivere, ma solo algoritmi da inven- 
tare per rifornire autocarri nel deserto e 
invertire treni. Parecchie centinaia di 
menti ostinate mi hanno inviato i loro 
risultati migliori. Sono lieto di aver for- 
nito dei veicoli per il pensiero. 

Un algorompicapo è un rompicapo 
che ha una soluzione algoritmica: una 
ricetta, un procedimento, per arrivare a 
un determinato obiettivo. I rompicapo 
del treno erano quelli più facili, in par- 
ticolare perché di uno avevo già dato la 
soluzione nell'articolo. È stato natural- 
mente molto difficile scegliere la soluzio- 
ne migliore tra la moltitudine di risposte 
al secondo rompicapo, quello che chie- 
deva di invertire la direzione di marcia 
di un intero treno usando un unico breve 
tratto di binario morto in grado di con- 
tenere una sola carrozza alla volta. Il se- 
guente algoritmo, proposto da Douglas 
A. Owenby di West Covina, California, 
è stato scelto più o meno a caso tra le 
migliori soluzioni arrivate per prime. La 
lettera A indica il tratto di binario da 
Città di Problema fino al binario morto, 
B indica il binario morto stesso e C il 
binario principale dal binario morto a 
Villasoluzione. La /c-esima carrozza del 
treno è chiamata Pk. 

sganciare il treno P 
avanti fino a B 
indietro fino a C 
for k = 1 to n 

avanti fino ad A 

agganciare Pk 

indietro fino a C 

avanti fino a B 



sganciare Pk 
indietro fino a C 
avanti fino ad A 
indietro fino a B 
agganciare Pk 

Un'altra soluzione inizia con l'ultima 
carrozza del treno invece della prima. 
Come molti lettori hanno notato, la so- 
luzione precedente richiede una quanti- 
tà di lavoro totale proporzionale a n } , 
dato che un treno con n carrozze deve 
essere trainato avanti e indietro per una 
distanza pari a n volte la lunghezza di n 
carrozze. 

Il primo problema della Volpe del De- 
serto chiedeva di stabilire quanta strada 
potesse percorrere un veicolo di pattu- 
glia disponendo di n bidoni di carburan- 
te. All'inizio il carburante è immagazzi- 
nato in bidoni da 200 litri in un deposito 
nel deserto. Il veicolo può trasportare 
solo un bidone alla volta. Come è possi- 
bile spostare i bidoni nel deserto in modo 
da rendere massima la distanza totale co- 
perta dal veicolo? Nell'articolo illustra- 
vo un algoritmo che garantiva un viaggio 
di 960 chilometri con due bidoni di car- 
burante. Il risultato migliore realizzabi- 
le, come è stato dimostrato da William 
B. Lipp di Milford, Connecticut (e da 
molti altri lettori), è 1 173,33 chilometri. 
In una divertente lettera intitolata «Batti 
la bestia ! Fai 1 1 73 chilometri con due soli 
barili», Lipp ottiene un risultato di gran 
lunga superiore ai 1065 chilometri che 
ritenevo possibili. Ecco (un poco rivisto) 
il suo algoritmo: 

rifornire il veicolo dal bidone 1 

caricare il bidone 2 

avanti 80 chilometri 

scaricare il bidone 2 

tornare al deposito 

rifornire il veicolo dal bidone 1 

caricare il bidone 1 

avanti 160 chilometri 

scaricare il bidone 1 

rifornire il veicolo 

indietro 80 chilometri al bidone 2 

caricare il bidone 2 

avanti 80 chilometri al bidone 1 

rifornire il veicolo dal bidone 1 

avanti 53 1/3 chilometri 

scaricare il bidone 2 

indietro 53 1/3 chilometri al bidone 1 

caricare il bidone 1 

avanti 53 1/3 chilometri al bidone 2 

A questo punto il veicolo di pattuglia 
è a 213 1/3 chilometri dal deposito inizia- 
le. Ora si limita a caricare il secondo bi- 
done (ancora pieno) e poi procede per 
%0 chilometri. 

Questo particolare algoritmo non è 
generalizzabile a un algoritmo che sia il 
migliore per più di n = 2 bidoni. Per 
esempio, non raggiunge il massimo di 
1376 chilometri per n = 3 bidoni. Il me- 
se prossimo fornirò un algoritmo gene- 
rale (per n?6 bidoni) e illustrerò una 
soluzione anche del secondo problema 
della Volpe del Deserto. 



154